InfiniBand

Un article de Wikipédia, l'encyclopédie libre.

L'infiniBand est un bus d'ordinateur à haut-débit. Il est destiné aussi bien aux communications internes qu'externes. Il est le fruit de la fusion de deux technologies concurrentes, Future I/O, développée par Compaq, IBM, et Hewlett-Packard, avec Next Generation I/O (ngio), développée par Intel, Microsoft, et Sun Microsystems. Pendant un bref temps avant l'adoption de son nom définitif, il fut aussi nommé System I/O. Intel s'est depuis ré-investi dans une technologie quasiment alternative, le bus PCI Express, exprimant ses doutes sur le futur de l'infiniBand.

L'infiniBand utilise un bus bi-directionnel à faible coût, et bénéficiant d'une latence faible. Mais il reste malgré tout fort rapide, puisqu'il fournit un débit de 10 Gbit/s dans chaque direction. L'infiniBand utilise une technologie permettant à plusieurs périphériques d'accéder en même temps au réseau. Les données sont transmises sous la forme de paquets, qui rassemblés forment des messages.

L'infiniBand est aujourd'hui très utilisé dans le monde du HPC (High Performance Computing) sous forme de cartes PCI-X ou PCI-Express fonctionnants en 10 Gbit/s (SDR, Single Data Rate), ou 20 Gbit/s (DDR, Double Data Rate). Ce réseau spécialisé necessite aussi l'utilisation d'un switch InfiniBand ainsi que des cables cuivres de types CX4 ou Fibre pour les longues distances (en utilisant un adaptateur CX4 vers Fibre).

Le protocole InfiniBand permet d'utiliser ces cartes de façon native en utilisant le protocol VERBS ou avec des surcouches logicielles :

  • IPoIB (IP sur InfiniBand) qui présente une couche ethernet au dessus de l'infiniband et donc la possibilité de configurer un réseau IP sur les ports InfiniBand.
  • SDP (Sockets Direct Protocol) qui présente une couche socket au dessus de l'infiniband.
  • SRP (SCSI RDMA Protocol) qui permet d'encapsuler des trames SCSI à travers l'infiniband. Certains constructeurs proposent des baies de stockage reliées en InfiniBand plutot qu'en Fiber Channel.

Ces surcouches offrent des performances inférieures au protocol natif, mais sont plus faciles à utiliser car elles ne necessitent pas le redeveloppement des applications pour utiliser le réseau InfiniBand. Dans le monde du HPC les librairies MPI (Message Passing Interface) utilisent en général la couche native VERBS directement pour offrir les meilleures performances possible.

Aujourd'hui chaque constructeur de materiel InfiniBand propose sa propre couche de pilote et de protocole. Mais il est possible d'utiliser la couche standard OpenIB (présente de base dans les noyaux linux récents et dans certaines distributions linux), qui est compatible avec toutes les cartes InfiniBand.

[modifier] Liens externes