Nowy model sztucznej inteligencji od firmy Anthropic nie trafi do szerokiego grona użytkowników. Powód jest prosty – jego możliwości są na tyle zaawansowane, że mogłyby zostać wykorzystane do cyberataków.
Claude Mythos Preview potrafi samodzielnie wykrywać poważne luki w oprogramowaniu, w tym takie, które przez lata pozostawały niewykryte. W testach znalazł m.in. błąd w systemie OpenBSD, który istniał przez 27 lat, oraz podatność w FFmpeg sprzed 16 lat.
Model nie tylko identyfikuje problemy, ale także potrafi je łączyć. W praktyce oznacza to, że może tworzyć gotowe scenariusze przejęcia kontroli nad systemem, wykorzystując kilka luk jednocześnie.
Ze względu na te zdolności Anthropic zdecydował się ograniczyć dostęp. Model będzie dostępny tylko w ramach Projektu Glasswing, w którym uczestniczą największe firmy technologiczne, m.in. Amazon, Google, Microsoft, Apple i NVIDIA.
AI ma być wykorzystywana wyłącznie do celów defensywnych – wyszukiwania podatności i zabezpieczania systemów, a nie ich łamania. Firma przeznaczyła na ten projekt 100 mln dolarów w kredytach oraz 4 mln dolarów grantów.
Do czasu wprowadzenia poprawek przez producentów oprogramowania szczegóły wykrytych luk nie będą ujawniane. To ma ograniczyć ryzyko ich wykorzystania.
Model będzie dostępny komercyjnie dla partnerów, ale w ograniczonym zakresie. Cena ma wynosić od 25 do 125 dolarów za milion tokenów, co dodatkowo zawęża grono użytkowników.
Decyzja o zamknięciu dostępu pokazuje, że rozwój AI wchodzi w nową fazę. To już nie tylko narzędzie do pisania kodu, ale system zdolny do znajdowania i wykorzystywania realnych słabości w oprogramowaniu.
źródło: antyweb.pl
