Google opublikowało nowy raport bezpieczeństwa, w którym opisuje rosnące próby kopiowania zaawansowanych modeli sztucznej inteligencji. Celem ataków ma być m.in. Gemini, czyli flagowy model AI firmy. Według dokumentu napastnicy wykorzystali ponad 100 tysięcy zapytań, aby analizować i odtwarzać sposób działania systemu. Google twierdzi, że działania te wpisują się w szerszą falę prób kradzieży własności intelektualnej związanej z AI. Ataki mają pochodzić m.in. z krajów takich jak Korea Północna, Rosja czy Chiny. Firma podkreśla jednak, że zagrożenie dotyczy przede wszystkim twórców modeli, a nie zwykłych użytkowników.
Czym jest „model extraction”?
Google określa te działania jako tzw. ataki ekstrakcyjne, czyli systematyczne badanie modelu przy użyciu legalnego dostępu. W praktyce oznacza to masowe generowanie zapytań w celu zrozumienia mechanizmów działania AI i wykorzystania tej wiedzy do stworzenia konkurencyjnego systemu. Tego typu operacje mogą prowadzić do powstania modeli w innych językach lub do replikowania funkcjonalności bez dostępu do oryginalnych danych treningowych.
Wyścig zbrojeń w świecie AI
Eksperci z Google Threat Intelligence Group ostrzegają, że firma może być jedynie pierwszym przykładem większego problemu. W ostatnich latach konkurencja w sektorze AI znacząco przyspieszyła, a napięcia między firmami technologicznymi rosną. Na rynku pojawiły się nowe, zaawansowane modele od azjatyckich firm, które coraz śmielej rywalizują z liderami z USA. W tle toczą się również spory o wykorzystywanie cudzej technologii do trenowania własnych systemów.
Raport Google pokazuje, że wraz z rozwojem sztucznej inteligencji rośnie także ryzyko kradzieży technologii. Ataki polegające na masowym analizowaniu modeli mogą stać się jednym z głównych zagrożeń dla firm rozwijających AI. Dla użytkowników oznacza to jedno – wyścig o dominację w świecie AI dopiero się rozpędza.
źródło: cnet.com
Katarzyna Petru












