Gdy ChatGPT skierował globalną uwagę na transformacyjny potencjał sztucznej inteligencji (AI), oznaczało to przełomowy moment w historii technologii: AI przeszła z umysłów kilku tysięcy naukowców do 100 milionów ludzi i 50 języków. Taki tempo wzrostu i rozprzestrzeniania się technologii jest bezprecedensowe. Istnieje wiele spekulacji i debat na temat tego, jak wpłynie ona na przyszłość praktycznie każdej branży. Nawigacja przez ten hype z kilkoma pragmatycznymi krokami, aby wygrać z AI, jest możliwa – pisze Vincent Korstanje, CEO Kigen.
- 97% globalnych kierowników zgadza się, że modele bazowe AI umożliwią połączenia między różnymi typami danych, rewolucjonizując miejsce i sposób użycia AI w ich własnych organizacjach.
- 6-krotny wzrost liczby wzmianek o AI w transkrypcjach rozmów zarobkowych od czasu wydania ChatGPT w listopadzie 2022 roku.
Duże modele językowe (LLM) stojące za ChatGPT, Bardem i innymi, stanowią znaczący punkt zwrotny dla inteligencji maszynowej z dwoma kluczowymi osiągnięciami:
- AI w końcu zrozumiała intencje i złożoność języka, które są fundamentalne dla ludzkiej komunikacji – po raz pierwszy maszyny mogą wyrażać odpowiedzi, przywoływać kontekst i być samodzielnie generatywne.
- Wykorzystując ogromną ilość danych treningowych w formatach bogatych w tekst, wideo, teksty piosenek i obrazy, AI może teraz dostosować się do szerokiego zakresu zadań i być przekształcana lub ponownie wykorzystywana w różnych formach.
Zdolność tych LLM do wykonywania instrukcji, prowadzenia zaawansowanego rozumowania i generowania kodu, zmieni rynek danych przedsiębiorstw, analiz i aplikacji: to disruptywna szansa dla producentów urządzeń.
LLM są budowane i trenowane na ogromnych ilościach danych – na przykład ChatGPT został przeszkolony na ogromnym korpusie danych tekstowych, około 570 GB zestawów danych, w tym stron internetowych, książek i innych źródeł. W przewidywalnej przyszłości wyczerpią one dostępne pisane teksty i artykuły i będą musiały polegać na weryfikowalnych danych z rzeczywistego życia. Dane z czujników są niezbędne do tego i będą najpotężniejszym sposobem na sensing, weryfikację i dodanie do integralności danych, na których opierają się wnioski AI.
W Kigen mówiliśmy o aplikacjach uczenia maszynowego przez kilka lat, a fakt, że LLM mogą być teraz uruchamiane na łatwo dostępnych platformach komputerowych, takich jak Raspberry Pi, jest zachęcający. W miarę jak możliwości AI się rozwijają, możemy zobaczyć ich współistnienie i współpracę w ekosystemach oferujących spersonalizowane doświadczenia użytkowników. W tym połączonym kontekście, gdzie agenci AI wspierają lub podejmują działania w imieniu użytkowników, kluczowe jest, aby wymiany danych były bezpieczne — od czujników na urządzeniu, przez procesory, po chmurę — gdziekolwiek to jest odpowiednio używane.
AI na urządzeniu to kolejny szybko rozwijający się rozwój – zwiększona moc obliczeniowa, bardziej wydajny sprzęt i solidne oprogramowanie, a także eksplozja danych z czujników z Internetu Rzeczy — umożliwiają AI przetwarzanie danych na urządzeniach mających bezpośredni kontakt z użytkownikiem, zamiast przesyłania wszystkiego do chmury, co może wiązać się z ryzykiem prywatności i bezpieczeństwa. Takie możliwości AI na urządzeniu otwierają nowe sposoby personalizacji doświadczeń.
Jednak według badania KPMG, cyberbezpieczeństwo i prywatność pozostają kluczowymi obawami wokół AI dla liderów IT. Więc, jak się ruszyć do przodu? Odpowiedź brzmi: zacznij od tego, co możesz kontrolować: zainwestuj w czujniki i urządzenia IoT zaprojektowane z myślą o bezpieczeństwie i zintegrowuj bezpieczeństwo od końca do końca. Jedną prostą implementacją tego, która obejmuje od najbardziej ograniczonego i najprostszego czujnika po dowolne urządzenie brzegowe i chmurę, jest IoTSAFE firmy Kigen oparte na standardach GSMA.
Największym ryzykiem związanym z korzystaniem z GenAI jest utrata poufności i integralności danych poprzez wprowadzanie wrażliwych danych do systemu AI lub korzystanie z nieweryfikowanych wyników z niego. Dla producentów OEM chcących być liderami w tej przestrzeni, integracja bezpieczeństwa w ich czujnikach, urządzeniach i przez stos technologiczny jest koniecznością.
W erze AI, bezpieczeństwo nie jest tylko cechą, to konieczność.
Skomentuj ten artykuł za pośrednictwem X: @IoTNow_