Jak sprawdzić, czy Twoje obrazy wytrenowały model AI (i jak zrezygnować)

Jak sprawdzić, czy Twoje obrazy wytrenowały model AI (i jak zrezygnować)

Ku niedowierzaniu wielu ludzi żyjący artyści odkrywają, że ich sztuka została wykorzystana do szkolenia modeli AI bez ich zgody. Korzystając z narzędzia internetowego o nazwie „Czy zostałem przeszkolony?”, możesz w ciągu kilku minut dowiedzieć się, czy Twoje obrazy zostały przesłane do Midjourney, NightCafe i innych popularnych generatorów obrazów AI.

Jeśli znajdziesz swój obraz w jednym ze zbiorów danych używanych do trenowania tych systemów sztucznej inteligencji, nie rozpaczaj. Niektóre organizacje opracowały sposoby rezygnacji z tej praktyki, zapobiegając usuwaniu obrazów z Internetu i przekazywaniu ich firmom zajmującym się sztuczną inteligencją.

W jaki sposób generatory obrazów AI są szkolone w pierwszej kolejności

Gdy poprosisz system sztucznej inteligencji, taki jak DALL-E, o wygenerowanie obrazu „psa w urodzinowym kapeluszu”, najpierw musi on wiedzieć, jak wygląda pies i jak wygląda urodzinowy kapelusz. Otrzymuje te informacje z ogromnych zbiorów danych, które gromadzą miliardy linków do obrazów w Internecie.

Jak wszyscy wiemy, Internet zawiera prawie każdy rodzaj obrazu, jaki można sobie wyobrazić, w tym najprawdopodobniej mnóstwo zdjęć „psa w urodzinowym kapeluszu”. Przy wystarczającej ilości takich danych model sztucznej inteligencji może opracować sposób odtworzenia obrazu na podobieństwo tych, na których został przeszkolony.

Ale co, jeśli te obrazy były pierwotnie chronione prawem autorskim? A co, jeśli te obrazy należały do ​​​​artystów, fotografów lub zwykłych ludzi, którzy nie byli świadomi, że ich obrazy zasilają system sztucznej inteligencji?

Problem dla artystów

Wiele generatorów obrazów AI ma płatny poziom, w którym użytkownicy mogą kupować kredyty, aby tworzyć więcej obrazów, uzyskując przy tym zysk. Ale ten zysk jest uzyskiwany z pleców niewymienionych osób, których obrazy zostały wykorzystane do szkolenia systemu AI.

Ponieważ coraz więcej artystów dowiaduje się, że ich obrazy zostały wykorzystane do opracowania systemów sztucznej inteligencji, jasne jest, że nie wszyscy to akceptują. Chcą przynajmniej, aby firmy zajmujące się sztuczną inteligencją uzyskały zgodę przed użyciem ich obrazów.

Cztery obrazy psa w kapeluszu w stylu Henri Magritte'a wygenerowane za pomocą DALL-E

Zwłaszcza jeśli jesteś popularnym, znanym artystą, posiadanie obrazów generowanych w Twoim stylu może zatłoczyć Twój rynek fanami lub potencjalnymi mecenasami, nie wiedząc, czy grafika została stworzona przez Ciebie, czy powielona na Twoje podobieństwo przez sztuczną inteligencję. Co gorsza, ludzie mogą tworzyć dzieła sztuki w twoim stylu, aby wspierać wartości, w które nie wierzysz.

To nie jest nowy problem, deepfake’i istnieją od lat i potencjalnie mogą się pogorszyć wraz z rozwojem sztucznej inteligencji. W dzisiejszych czasach reprodukcja „fałszywej” sztuki jest szybka, tania i łatwa. Istnieje tylko kilka sposobów na zidentyfikowanie obrazu wygenerowanego przez sztuczną inteligencję, co utrudnia odróżnienie oryginalnej grafiki od jej odpowiednika wygenerowanego przez sztuczną inteligencję.

Zbiory danych: wyszukiwanie i indeksowanie obrazów

Jak wspomnieliśmy wcześniej, zestawy danych obrazu są wykorzystywane przez firmy zajmujące się sztuczną inteligencją do trenowania swoich modeli. Te zestawy danych wyglądają jak gigantyczny arkusz kalkulacyjny programu Excel z jedną kolumną zawierającą link do obrazu w Internecie, a drugą z podpisem obrazu.

Nie wszystkie firmy zajmujące się sztuczną inteligencją ujawnią zestaw danych, z którego korzystają, na przykład DALL-E. Utrudnia to ustalenie, do czego się odwołuje, gdy generuje obraz, i zwiększa ogólną tajemniczość systemów sztucznej inteligencji.

Z drugiej strony, Stable Diffusion, model opracowany przez Stability AI, jasno pokazał, że został zbudowany na zbiorze danych LAION-5B , który zawiera kolosalne 5,85 miliarda przefiltrowanych przez CLIP par obraz-tekst. Ponieważ ten zestaw danych jest typu open source, każdy może przeglądać obrazy, które indeksuje, iz tego powodu spotkał się z ostrą krytyką.

Na początku 2023 roku firma Getty Images pozwała Stability AI za usuwanie obrazów ze swojej strony internetowej w celu wyszkolenia generatora obrazów AI, Stable Diffusion. Jeśli zastanawiasz się, kto z kolei używa Stable Diffusion, byłyby to NightCafe, Midjourney i DreamStudio, jedni z największych graczy w tej dziedzinie.

Jak sprawdzić, czy Twoje obrazy zostały użyte do trenowania modelu AI

Założony przez grupę artystów, Spawning to kolektyw, którego celem jest pomoc ludziom w ustaleniu, czy ich obrazy znajdują się w zbiorach danych takich jak LAION-5B, używanych do trenowania modeli AI. Ich wyszukiwarka internetowa o nazwie Czy zostałem przeszkolony? umożliwia łatwe wyszukiwanie słów kluczowych, takich jak nazwisko wykonawcy.

Czy byłem szkolony?

Strona główna Czy zostałem przeszkolony

Have I Been Trained działa bardzo podobnie do wyszukiwania grafiki Google, z wyjątkiem tego, że twoje wyszukiwanie jest dopasowane do wyników w zbiorze danych LAION-5B. Masz możliwość wyszukiwania według słowa kluczowego lub obrazu, to drugie jest pomocne, jeśli chcesz sprawdzić, czy użyto dokładnego obrazu.

Wyniki wyszukiwania dla Fridy Kahlo na Czy zostałem wyszkolony?  strona internetowa

Użyliśmy nazwiska artystki Fridy Kahlo (1907-1954), aby to przetestować i znaleźliśmy mieszankę historycznych fotografii i czegoś, co wygląda jak dzieła fanów w postaci bazgrołów, obrazów, haftu krzyżykowego, szydełka i ilustracji.

Jeśli jesteś jednym z tych twórców, jesteś jednym z wielu niewymienionych ludzi, których kreatywność umożliwiła istnienie generatorów obrazów AI. Dzięki tej mocy każdy może teraz tworzyć obrazy Fridy, takie jak ten dziwaczny portret „Fridy Kahlo jedzącej lody”.

Wygenerowany przez sztuczną inteligencję obraz Fridy Kahlo wykonany za pomocą Night Cafe

Spróbuj wpisać własne nazwisko wykonawcy w pasku wyszukiwania, aby sprawdzić, czy Twoja praca została wykorzystana do trenowania modelu AI.

Jak zrezygnować z zestawów danych szkoleniowych AI

Ten sam zespół, który stoi za stroną internetową Have I Been Trained, stworzył narzędzie, dzięki któremu ludzie mogą włączać i wyłączać systemy sztuki AI. Jest to jeden ze sposobów, w jaki artyści mogą zachować kontrolę i pozwolenia na to, kto i w jakim celu wykorzystuje ich dzieła.

Inne platformy artystyczne zaczynają iść w ich ślady i obecnie DeviantArt oferuje opcję wykluczenia ich obrazów z wyszukiwania przez zestawy danych obrazów.

Czy zostałem przeszkolony: narzędzie do rezygnacji z AI

Oprócz możliwości wyszukiwania swojego obrazu, możesz także wybrać obrazy, aby zrezygnować z danych treningowych LAION-5B, korzystając z witryny Have I Been Trained.

Najpierw musisz utworzyć konto, a następnie kliknąć obraz prawym przyciskiem myszy i wybrać opcję Zrezygnuj z tego obrazu .

Opcja menu umożliwiająca rezygnację i obraz przy użyciu witryny Czy zostałem przeszkolony?

Wybranie tej opcji spowoduje dodanie tego obrazu do listy rezygnacji, do której można uzyskać dostęp, klikając symbol konta w prawym górnym rogu strony, a następnie wybierając opcję Moje listy . Aby usunąć go z listy, kliknij obraz prawym przyciskiem myszy i wybierz opcję Usuń z listy rezygnacji .

Widok galerii zdjęć z listy rezygnacji autorstwa Have I Be Trained

Jeśli jesteś płodnym artystą, ta metoda jest żmudna i niewystarczająca, aby skutecznie zrezygnować ze wszystkich zdjęć. Niestety, w chwili pisania tego tekstu nie ma lepszej alternatywy, ale prawdopodobnie w przyszłości zostaną wprowadzone ulepszenia do tego systemu.

Te listy rezygnacji są następnie przekazywane firmie stojącej za LAION-5B, która zgodziła się usunąć te obrazy ze swojego zbioru danych.

Preferencja rezygnacji z DeviantArt

DeviantArt do tej pory przewodził platformom hostingu dzieł sztuki, dając użytkownikom możliwość rezygnacji z ich dzieł sztuki. Początkowo trzeba było znaleźć preferencje i zaznaczyć pole wyboru rezygnacji. Ale po silnych opiniach społeczności DeviantArt ta opcja jest teraz domyślnie włączona.

Oznacza to, że żaden obraz opublikowany w DeviantArt nie jest udostępniany w zbiorach danych obrazu, chyba że użytkownicy wyrazili na to zgodę. Mechanizm, którego używa, nie jest całkowicie niezawodny, ale polega na oflagowaniu obrazu za pomocą znacznika HTML „noai”. To mówi zestawom danych AI, że obraz nie może być używany, a jeśli tak, firma naruszy Warunki korzystania z usługi DeviantArt .

Zrzut ekranu preferencji flagi noai na DeviantArt

Preferencje rezygnacji można znaleźć, umieszczając kursor myszy nad ikoną konta osobistego i klikając Ustawienia konta . Następnie kliknij Ogólne w menu po lewej stronie i przewiń w dół, aż zobaczysz nagłówek Poinformuj zestawy danych AI, że nie mogą używać Twoich treści .

Szacunek dla pracy artystów

Znalezienie dobrego kompromisu między systemami sztucznej inteligencji a artystami, których praca pomaga w ich szkoleniu, zajmie trochę czasu. Jeśli jesteś twórcą, nie czuj się bezsilny. Dzięki silnym reakcjom społeczności korzystających z platform artystycznych, takich jak DeviantArt, możesz mieć kontrolę nad tym, kto korzysta z Twojej grafiki.

Nie wszyscy też będą chcieli zrezygnować, niektórzy ludzie nie mają problemu ze swoimi obrazami trenującymi modele AI. Ale najważniejsze jest, aby firmy zajmujące się sztuczną inteligencją uzyskały zgodę i wypracowały uczciwą i pełną szacunku przestrzeń do wspólnego istnienia modelek AI i artystów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *