USA, Wielka Brytania i 16 innych krajów podpisują umowę, dzięki której sztuczna inteligencja będzie „bezpieczna od samego początku”

USA, Wielka Brytania i 16 innych krajów podpisują umowę, dzięki której sztuczna inteligencja będzie „bezpieczna od samego początku”

Stany Zjednoczone, Wielka Brytania i 16 innych krajów połączyły siły i podpisały nowe porozumienie, dzięki któremu AI będzie „bezpieczna z założenia”.Nawet choć jest to dopiero uznawane za podstawowe zestawienie zasad, amerykańska Agencja ds. Bezpieczeństwa Cyberbezpieczeństwa i Infrastruktury (CISA) wspomniała, że ​​jest to krok we właściwym kierunku.

Sztuczna inteligencja musi stać się znacznie bezpieczniejsza niż jest w rzeczywistości i potrzebujemy przepisów regulujących tworzenie nowych systemów opartych na niej

Jak dotąd zaobserwowaliśmy kilka zastosowań sztucznej inteligencji, od podstawowych zadań, takich jak obliczanie wartości procentowych między dwiema liczbami, po skomplikowane odpowiedzi. Zastosowań sztucznej inteligencji jest wiele i po prostu nie da się ich zdefiniować w ramach liczb, jakie możemy wymyślić. Im więcej parametrów ma model, tym jest lepszy, a ponieważ sztuczna inteligencja staje się natywną funkcją w telefonach z 2024 r., jest to ważne.

Tak czytamy w raporcie

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów ujawniły w niedzielę to, co wysoki rangą urzędnik amerykański określił jako pierwsze szczegółowe międzynarodowe porozumienie w sprawie sposobu ochrony sztucznej inteligencji przed nieuczciwymi podmiotami, naciskając na firmy, aby tworzyły systemy sztucznej inteligencji, które są „zabezpieczone przez projekt.”

W 20-stronicowym dokumencie zaprezentowanym w niedzielę 18 krajów zgodziło się, że firmy projektujące i wykorzystujące sztuczną inteligencję muszą ją rozwijać i wdrażać w sposób chroniący klientów i ogół społeczeństwa przed niewłaściwym wykorzystaniem.

Jen Easterly, dyrektor CISA, wspomniała również o tym, jak ważne jest, aby kraje zrozumiały, że rozwój sztucznej inteligencji powinien opierać się na podejściu stawiającym na pierwszym miejscu bezpieczeństwo, a nawet zachęciła inne kraje, aby również mogły się do tego przyłączyć.

„Po raz pierwszy spotkaliśmy się z potwierdzeniem, że możliwości te nie powinny dotyczyć wyłącznie ciekawych funkcji i tego, jak szybko możemy je wprowadzić na rynek lub jak możemy konkurować, aby obniżyć koszty” – Easterly powiedział agencji Reuters, stwierdzając, że wytyczne reprezentują „zgoda, że ​​najważniejszą rzeczą, którą należy zrobić na etapie projektowania, jest bezpieczeństwo”.

Porozumienie podpisały także Niemcy, Włochy, Czechy, Estonia, Polska, Australia, Chile, Izrael, Nigeria i Singapur. Tymczasem, aby mieć pewność, że sztuczna inteligencja nie stanie się zagrożeniem, Europa rozpocznie prace nad szczegółowymi przepisami regulującymi rozwój i wprowadzanie na rynek nowych systemów sztucznej inteligencji. Oznacza to, że wszystkie firmy realizujące swoje systemy w UE będą musiały mieć pewność, że nie ma luk w zabezpieczeniach, które mogłyby pozwolić użytkownikom na niewłaściwe wykorzystanie sztucznej inteligencji.

Nie można zaprzeczyć, że nie należy powstrzymywać stosowania sztucznej inteligencji, zwłaszcza jeśli spodziewamy się postępu i ulepszeń naszej technologii, a także w pewnym stopniu naszego codziennego życia. To porozumienie jest o wiele ważniejsze. Jednocześnie ważne jest, aby zrozumieć, że tworzenie przepisów regulujących wykorzystanie sztucznej inteligencji nie jest zadaniem łatwym i może zająć lata, zanim faktycznie dojdzie do skutku. Jednocześnie musisz zdać sobie sprawę, że sztuczna inteligencja będzie miała możliwości, które będzie rozwijać w miarę upływu czasu. Oznacza to, że tworzenie przepisów i zasad mających zastosowanie do obecnego modelu AI może nie wystarczyć za kilka lat, kiedy ten sam model nauczy się więcej.

Źródło wiadomości: Reuters

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *