Google i DeepMind zaprezentowały VaultGemma – nowy model sztucznej inteligencji, który ma wyróżniać się tym, że chroni dane użytkowników. To największy na świecie model językowy udostępniony jako open source, w całości stworzony z myślą o prywatności.
Odpowiedź na ryzyko wycieku danych
Modele AI uczą się na ogromnych bazach tekstów z internetu. Czasem mogą „zapamiętać” wrażliwe informacje i później je odtworzyć. VaultGemma został zaprojektowany tak, by do tego nie dochodziło. W trakcie trenowania system wprowadza specjalne zabezpieczenia, które sprawiają, że pojedyncze dane nie mają wpływu na wynik końcowy.
Trochę słabszy, ale bezpieczniejszy
Nowy model jest mniej dokładny niż najnowsze systemy AI – jego możliwości można porównać do technologii sprzed kilku lat. Jednak zyskuje przewagę tam, gdzie liczy się prywatność i bezpieczeństwo danych.
Google udostępniło VaultGemma na platformach Hugging Face i Kaggle, wraz z raportem technicznym. Dzięki temu mogą z niego korzystać naukowcy, programiści i firmy pracujące nad rozwiązaniami opartymi na sztucznej inteligencji.
Nowe standardy w sztucznej inteligencji
Premiera VaultGemma pokazuje, że Google chce wyznaczać kierunki w rozwoju AI – nie tylko stawiając na moc obliczeniową, ale też na ochronę prywatności. W obliczu rosnącej presji regulacyjnej firma liczy, że jej rozwiązanie stanie się wzorem dla całej branży.
