Napisz do nas

Nowa sztuczna inteligencja Google. VaultGemma ma chronić dane użytkowników

Google i DeepMind zaprezentowały VaultGemma – nowy model sztucznej inteligencji, który ma wyróżniać się tym, że chroni dane użytkowników. To największy na świecie model językowy udostępniony jako open source, w całości stworzony z myślą o prywatności.

Odpowiedź na ryzyko wycieku danych

Modele AI uczą się na ogromnych bazach tekstów z internetu. Czasem mogą „zapamiętać” wrażliwe informacje i później je odtworzyć. VaultGemma został zaprojektowany tak, by do tego nie dochodziło. W trakcie trenowania system wprowadza specjalne zabezpieczenia, które sprawiają, że pojedyncze dane nie mają wpływu na wynik końcowy.

Trochę słabszy, ale bezpieczniejszy

Nowy model jest mniej dokładny niż najnowsze systemy AI – jego możliwości można porównać do technologii sprzed kilku lat. Jednak zyskuje przewagę tam, gdzie liczy się prywatność i bezpieczeństwo danych.

Google udostępniło VaultGemma na platformach Hugging Face i Kaggle, wraz z raportem technicznym. Dzięki temu mogą z niego korzystać naukowcy, programiści i firmy pracujące nad rozwiązaniami opartymi na sztucznej inteligencji.

Nowe standardy w sztucznej inteligencji

Premiera VaultGemma pokazuje, że Google chce wyznaczać kierunki w rozwoju AI – nie tylko stawiając na moc obliczeniową, ale też na ochronę prywatności. W obliczu rosnącej presji regulacyjnej firma liczy, że jej rozwiązanie stanie się wzorem dla całej branży.

- Reklama -
NAJNOWSZE

WYBRANE DLA CIEBIE

W tym tygodniu o tym się mówi