F5 ogłosiło, że wprowadza zaawansowane możliwości zabezpieczania aplikacji i dostarczania usług dla wdrożeń AI zasilanych przez Intel. To wspólne rozwiązanie łączy zarządzanie ruchem i bezpieczeństwem z oferty F5 NGINX Plus z najnowocześniejszą optymalizacją i wydajnością narzędzia Intel Distribution of OpenVINO oraz jednostek przetwarzania infrastruktury (IPU), zapewniając ochronę, skalowalność i wydajność dla inferencji AI.
W miarę jak organizacje coraz częściej wdrażają AI do zasilania inteligentnych aplikacji i przepływów pracy, efektywna i bezpieczna inferencja AI staje się kluczowa. Potrzeba ta jest zaspokajana poprzez połączenie narzędzia OpenVINO, które optymalizuje i przyspiesza inferencję modeli AI, z F5 NGINX Plus, które zapewnia solidne zarządzanie ruchem i bezpieczeństwo.
Narzędzie OpenVINO upraszcza optymalizację modeli z niemal każdego frameworku, umożliwiając podejście typu „napisz raz, wdrażaj wszędzie”. To narzędzie jest niezbędne dla deweloperów, którzy chcą tworzyć skalowalne i wydajne rozwiązania AI przy minimalnych zmianach w kodzie.
F5 NGINX Plus zwiększa bezpieczeństwo i niezawodność tych modeli AI. Działając jako reverse proxy, NGINX Plus zarządza ruchem, zapewnia wysoką dostępność i aktywne kontrole zdrowia systemu. Umożliwia także terminowanie SSL i szyfrowanie mTLS, zabezpieczając komunikację między aplikacjami a modelami AI bez uszczerbku na wydajności.
Aby jeszcze bardziej zwiększyć wydajność, jednostki IPU firmy Intel odciążają usługi infrastrukturalne z procesora hosta, zwalniając zasoby dla serwerów modeli AI. IPU efektywnie zarządzają zadaniami infrastruktury, otwierając zasoby na poprawę skalowalności i wydajności zarówno NGINX Plus, jak i OpenVINO Model Servers (OVMS).
Zintegrowane rozwiązanie jest korzystne dla aplikacji brzegowych, takich jak analiza wideo i IoT, gdzie niski czas opóźnienia i wysoka wydajność są kluczowe. Uruchamianie NGINX Plus na IPU firmy Intel pomaga zapewnić niezawodne odpowiedzi, co czyni go optymalnym wyborem dla sieci dostarczania treści i rozproszonych wdrożeń mikrousług.
„Współpraca z Intelem umożliwia nam przesuwanie granic wdrożeń AI. Ta współpraca podkreśla nasze zaangażowanie w rozwój innowacji i dostarcza bezpieczne, niezawodne i skalowalne rozwiązanie inferencji AI, które umożliwi przedsiębiorstwom szybkie i bezpieczne dostarczanie usług AI. Nasze wspólne rozwiązanie zapewnia organizacjom możliwość korzystania z mocy AI z doskonałą wydajnością i bezpieczeństwem,” powiedział Kunal Anand, dyrektor ds. technologii w F5.
„Wykorzystanie zaawansowanej akceleracji infrastruktury IPU Intela oraz narzędzia OpenVINO wraz z F5 NGINX Plus może pomóc przedsiębiorstwom w realizacji innowacyjnych rozwiązań inferencji AI z poprawioną prostotą, bezpieczeństwem i wydajnością na skalę dla wielu rynków wertykalnych i obciążeń,” powiedział Pere Monclus, dyrektor ds. technologii, grupy sieciowej i brzegowej w firmie Intel.
Rozwiązanie jest już dostępne. Aby dowiedzieć się więcej, odwiedź f5.com/intel. Dodatkowo na blogu F5, CTO Kunal Anand udziela dalszych informacji na temat tej oferty.
Skomentuj ten artykuł za pośrednictwem X: @IoTNow i odwiedź nasza strone IoT Now Polska