Bitget i SlowMist o zagrożeniach związanych z AI
Bitget i SlowMist o zagrożeniach związanych z AI w tradingu
Bitget we współpracy z firmą SlowMist opublikował raport dotyczący nowych zagrożeń, które pojawiają się wraz z rozwojem autonomicznego handlu opartego na sztucznej inteligencji. Chodzi o moment, w którym AI przestaje jedynie analizować rynek, a zaczyna samodzielnie podejmować i wykonywać decyzje inwestycyjne.
Autorzy zwracają uwagę, że to istotna zmiana w funkcjonowaniu rynku. Wraz z przejściem AI do fazy działania błędy i ataki przestają być pojedynczymi incydentami. Mogą prowadzić do natychmiastowych i nieodwracalnych strat finansowych. W środowisku kryptowalut, gdzie transakcje realizowane są błyskawicznie, nie ma czasu na reakcję człowieka.
Jak podkreśla CEO Bitget, Gracy Chen, kluczowe przestaje być to, jak zaawansowane są systemy, a zaczyna to, jak bezpiecznie są wdrażane. AI nie tylko interpretuje rynek, ale aktywnie w nim uczestniczy, co całkowicie zmienia profil ryzyka.
Raport wskazuje na nowe obszary podatności. Zagrożenia mogą pojawić się na wielu etapach działania systemu, od danych wejściowych, przez proces podejmowania decyzji, aż po realizację transakcji. Przykładowo manipulacja poleceniami może wpłynąć na decyzje AI, złośliwe dodatki mogą zmieniać jej zachowanie, a zbyt szerokie uprawnienia dają dostęp do środków bez odpowiedniej kontroli. Problem pogłębia fakt, że takie systemy działają nieprzerwanie, bez stałego nadzoru użytkownika.
Zamiast traktować te ryzyka jako odrębne, raport przedstawia je jako problem systemowy. Oznacza to konieczność zmiany podejścia do bezpieczeństwa i uwzględnienia go już na etapie projektowania całej architektury.
Bitget deklaruje, że wdraża rozwiązania odpowiadające na te wyzwania. Platforma rozdziela warstwę analizy, wykonania i autoryzacji środków, aby ograniczyć ryzyko pojedynczego punktu awarii. Wprowadza także ograniczone uprawnienia oraz mechanizmy symulacji i weryfikacji transakcji przed ich realizacją.
Z kolei SlowMist podkreśla znaczenie modelu bezpieczeństwa obejmującego cały proces działania systemu. Stały monitoring, kontrola uprawnień i możliwość weryfikacji transakcji mają zapewnić większą odporność na zagrożenia.
Wnioski z raportu pokazują szerszy trend. Wraz z rosnącą rolą AI w handlu i zarządzaniu aktywami granica między decyzją użytkownika a działaniem systemu zaczyna się zacierać. W takiej rzeczywistości liczy się nie tylko skuteczność, ale też zdolność działania w jasno określonych i bezpiecznych ramach.