Arista Networks ogłosiła wprowadzenie platform Arista Etherlink AI, zaprojektowanych w celu zapewnienia optymalnej wydajności sieci dla wymagających obciążeń AI, w tym treningu i inferencji.
Zasilane nowymi funkcjami Arista EOS zoptymalizowanymi pod kątem AI, portfolio Arista Etherlink AI obsługuje rozmiary klastrów AI od tysięcy do setek tysięcy XPUs z wysoce wydajnymi jednopoziomowymi i dwupoziomowymi topologiami sieciowymi, które zapewniają wydajność aplikacji w porównaniu z bardziej złożonymi sieciami wielopoziomowymi, oferując jednocześnie możliwości monitorowania, w tym widoczność na poziomie przepływu.
„Sieć jest kluczowa dla pomyślnego zakończenia zadań w klastrach AI,” powiedział Alan Weckel, założyciel i analityk technologiczny w 650 Group. „Platformy Arista Etherlink AI oferują klientom możliwość posiadania jednolitej technologii 800G end-to-end dla sieci front-end, treningu, inferencji i przechowywania. Klienci korzystają z używania tych samych dobrze sprawdzonych narzędzi Ethernet, zabezpieczeń i doświadczenia, na których polegali od dekad, jednocześnie łatwo skalując się do dowolnej aplikacji AI.”
Platformy AI Arista Etherlink
- Rodzina przełączników 7060X6 AI Leaf wykorzystuje układy Broadcom Tomahawk 5, z przepustowością 51,2 Tbps i obsługą 64 portów 800G lub 128 portów 400G Ethernet.
- 7800R4 AI Spine to czwarta generacja flagowych systemów modułowych Arista 7800. Implementuje najnowsze procesory Broadcom Jericho3-AI z zoptymalizowaną dla AI ścieżką pakietów i oferuje nieblokującą przepustowość dzięki sprawdzonej architekturze wirtualnych kolejek wyjściowych. 7800R4-AI obsługuje do 460 Tbps w jednej obudowie, co odpowiada 576 portom 800G lub 1152 portom 400G Ethernet.
- 7700R4 AI Distributed Etherlink Switch (DES) obsługuje największe klastry AI, oferując klientom równoległe rozproszone planowanie i ruch wolny od przeciążeń, oparte na architekturze Jericho3-AI. 7700 reprezentuje pierwszą serię ultra-skalowalnych, inteligentnych systemów rozproszonych, które mogą zapewnić spójną przepustowość dla bardzo dużych klastrów AI.
Jednopoziomowa topologia sieciowa z platformami Etherlink może obsługiwać ponad 10 000 XPUs. Z dwupoziomową siecią, Etherlink może obsługiwać ponad 100 000 XPUs. Minimalizowanie liczby poziomów sieciowych jest kluczowe dla optymalizacji wydajności aplikacji AI, zmniejszenia liczby transceiverów optycznych, obniżenia kosztów i poprawy niezawodności.
Wszystkie przełączniki Etherlink wspierają pojawiające się standardy Ultra Ethernet Consortium (UEC), które mają zapewnić dodatkowe korzyści wydajnościowe, gdy wkrótce pojawią się karty sieciowe UEC NIC.
„Broadcom jest zdecydowanym zwolennikiem wszechstronności, wydajności i niezawodności Ethernetu, co czyni go technologią pierwszego wyboru dla obciążeń AI,” powiedział Ram Velaga, starszy wiceprezes i dyrektor generalny Core Switching Group w Broadcom. „Dzięki wykorzystaniu wiodących w branży układów Ethernet, takich jak Tomahawk 5 i Jericho3-AI, Arista dostarcza idealne rozwiązanie wolne od akceleratorów dla klastrów AI dowolnego kształtu i rozmiaru, przewyższając technologie własnościowe i oferując elastyczne opcje dla platform przełącznikowych stałych, modułowych i rozproszonych.”
Zestaw funkcji Arista EOS Smart AI
Bogate funkcje Arista EOS i CloudVision uzupełniają te nowe platformy sieciowe dla AI. Innowacyjny pakiet oprogramowania dla AI-for-networking, bezpieczeństwa, segmentacji, widoczności i telemetrii przynosi AI-owe zabezpieczenia i ochronę dla wartościowych klastrów i obciążeń AI. Na przykład, zestaw ulepszeń Arista EOS Smart AI teraz integruje się z dostawcami SmartNIC, aby dostarczać zaawansowane wyważanie obciążenia świadome RDMA i QoS. Arista AI Analyzer zasilany przez Arista AVA automatyzuje konfigurację i poprawia widoczność oraz inteligentną analizę wydajności obciążeń AI.
„Przewaga konkurencyjna Arista niezmiennie sprowadza się do naszego bogatego systemu operacyjnego i szerokiego portfolio produktów, które adresują sieci AI o dowolnej wielkości,” powiedział Hugh Holbrook, dyrektor ds. rozwoju w Arista Networks. „Innowacyjne funkcje EOS zoptymalizowane dla AI umożliwiają szybsze wdrożenia, redukują problemy z konfiguracją, zapewniają analizę wydajności na poziomie przepływu i poprawiają czasy realizacji zadań AI dla klastrów AI dowolnej wielkości.”
Skomentuj ten artykuł za pośrednictwem X: @IoTNow_