Microsoft, OpenAI, Google i inne firmy zobowiązują się do odpowiedzialnej sztucznej inteligencji w Białym Domu
Przedstawiciele siedmiu gigantów technologicznych – Amazon, Anthropic, Google, Inflection, Meta, Microsoft i OpenAI – spotkali się z administracją Biden-Harris, aby omówić odpowiedzialny rozwój sztucznej inteligencji. Firmy technologiczne starały się uspokoić administrację, że poważnie traktują względy etyczne, ścigając się o postęp w sztucznej inteligencji.
Spotkanie w Białym Domu odbywa się w związku z rosnącymi obawami, że postępy w sztucznej inteligencji mogą być potencjalnie niewłaściwie wykorzystywane lub mogą mieć niezamierzone negatywne konsekwencje.
Potężne systemy sztucznej inteligencji są teraz w stanie generować tekst, obrazy, dźwięk, wideo i kod w bardzo przekonujący sposób. Chociaż technologia ta obiecuje wiele korzyści, niektórzy obawiają się, że może ona również umożliwiać rozpowszechnianie dezinformacji i być wykorzystywana do manipulowania ludźmi .
Po spotkaniu Microsoft podkreśla znaczenie budowania sztucznej inteligencji, która jest bezpieczna i korzystna dla społeczeństwa. Ma na celu zapewnienie, aby jej systemy sztucznej inteligencji były uczciwe, niezawodne, godne zaufania, integracyjne, przejrzyste i rozliczalne. Aby to osiągnąć, firma opracowała zasady i wytyczne dotyczące rozwoju sztucznej inteligencji .
Na swoim blogu Microsoft stwierdził :
Działając szybko, zobowiązania Białego Domu tworzą podstawę, która pomoże zapewnić, że obietnica sztucznej inteligencji będzie wyprzedzać związane z nią ryzyko. Z zadowoleniem przyjmujemy przywództwo prezydenta w jednoczeniu branży technologicznej w celu wypracowania konkretnych kroków, które pomogą uczynić sztuczną inteligencję bezpieczniejszą, bezpieczniejszą i bardziej korzystną dla społeczeństwa.
Google niedawno opublikowało również propozycję dotyczącą projektowania włączenia do systemów sztucznej inteligencji, aby uniknąć nieuczciwych uprzedzeń. Firma wierzy w śmiałe, ale przemyślane podejście do innowacji AI.
OpenAI kładzie nacisk na ostrożne podejście do udostępniania swojej technologii i przemyślenie potencjalnych zagrożeń. Mimo to niektórzy eksperci z FTC namawiali OpenAI do większej przejrzystości w zakresie swoich zabezpieczeń .
Tych siedem wiodących firm AI zobowiązuje się do:
- Wewnętrzne i zewnętrzne testy bezpieczeństwa ich systemów AI przed ich wydaniem.
- Dzielenie się informacjami w całej branży oraz z rządami, społeczeństwem obywatelskim i środowiskiem akademickim na temat zarządzania ryzykiem związanym ze sztuczną inteligencją.
- Inwestowanie w cyberbezpieczeństwo i zabezpieczenia przed zagrożeniami wewnętrznymi w celu ochrony zastrzeżonych i niewydanych wag modeli.
- Ułatwianie stronom trzecim wykrywania i zgłaszania luk w systemach sztucznej inteligencji.
- Opracowanie solidnych mechanizmów technicznych, aby użytkownicy wiedzieli, kiedy treść jest generowana przez sztuczną inteligencję.
- Publiczne zgłaszanie możliwości, ograniczeń i obszarów właściwego i niewłaściwego wykorzystania ich systemów sztucznej inteligencji.
- Priorytetowe traktowanie badań nad zagrożeniami społecznymi, jakie mogą stwarzać systemy sztucznej inteligencji
- Opracowuj i wdrażaj zaawansowane systemy sztucznej inteligencji, aby pomóc sprostać największym wyzwaniom społeczeństwa.
W międzyczasie Meta i Microsoft współpracowały nad następną generacją Lamy . W swoim poście na blogu Microsoft powiedział, że „Llama 2 została zaprojektowana, aby umożliwić programistom i organizacjom tworzenie generatywnych narzędzi i doświadczeń opartych na sztucznej inteligencji”.
Biały Dom dał jasno do zrozumienia, że chce ściśle współpracować z firmami technologicznymi w celu promowania odpowiedzialnych innowacji w zakresie sztucznej inteligencji. Wezwał do wbudowania poręczy w systemy sztucznej inteligencji w celu ochrony prywatności, praw obywatelskich i bezpieczeństwa narodowego .
Dodaj komentarz