Répartition de charge

Répartition de la charge de travail entre plusieurs serveurs

Le lancement de nouvelles applications engendre une incertitude quant à la charge des systèmes. Pour lever cette incertitude, nous pouvons recourir à la répartition de charge.

Répartition de charge au niveau de l'infrastructure: une ingéniosité discrète

Lorsque vous mettez une nouvelle application en production, vous vous étonnez parfois de son succès. En effet, il peut arriver que l'application soit utilisée bien plus vite et par beaucoup plus de personnes que ce qui était prévu au niveau de l'analyse de la configuration. Dans cette situation, l'astuce est de disposer d'une répartition de charge au niveau de l'infrastructure, permettant de répartir la charge de travail entre plusieurs serveurs sans devoir adapter l'application ou l'environnement de l'application. Ainsi, les visiteurs n'y voient que du feu.

Si la charge est quand même trop élevée, nous pouvons informer les visiteurs

Lors des pics de fréquentation, si l'application atteint sa capacité maximale, l'excédent de visiteurs est dévié vers un serveur d'information de manière à ce que ces derniers comprennent la nature du problème et n'alarment pas inutilement le helpdesk, par exemple.

Maintenance sans interruption

Lorsque plusieurs serveurs bénéficient de la répartition de charge, ils peuvent subir des opérations de maintenance séparément sans que le service ne soit interrompu. En effet, le répartiteur de charge envoie tous les nouveaux visiteurs vers un autre serveur afin que celui qui doit faire l'objet de la maintenance soit entièrement libéré.

La répartition de charge est en soi une fonctionnalité particulièrement utile. En offrant ce service au niveau de l'infrastructure, nous bénéficions de ses avantages sans devoir gérer la complexité dans l'application ou l'environnement de l'application.