Jak chronić swoje obrazy przed generatorami grafiki AI
Chociaż fajnie jest naśladować dzieła dawno minionych artystów, takich jak Van Gogh czy Frida Kahlo za pomocą generatora AI, to samo nie dotyczy żyjących artystów. Pozwolenie niemal każdemu na stworzenie wizerunku „w stylu” artysty może spowodować zalanie jego rynku podróbkami; dodając zamieszanie wokół autentyczności i potencjalną utratę dochodów.
W odpowiedzi ludzie szukają sposobu na ochronę swoich zdjęć przed generatorami grafiki AI. Odpowiedzi mogą nie być doskonałe lub niezawodne, ale istnieją sposoby na obronę obrazów przed wykorzystaniem przez generatory grafiki AI.
Jak generatory AI pozyskują Twoje obrazy
Twórcy grafiki AI przechodzą okres „treningu”, aby nauczyć się, jak tworzyć obraz po otrzymaniu monitu tekstowego. W ramach procesu uczenia się musi przestudiować setki milionów par obraz-tekst, aby ostatecznie wygenerować dokładny obraz rzeczywistych obiektów, kolorów i scen — wraz z technikami artystycznymi i stylem.
Tak się składa, że modele AI muszą uczyć się od kreatywności ludzi. Na przykład Midjourney i Stability Diffusion to dwa generatory grafiki AI przeszkolone na zbiorze danych LAION-5B typu open source, zawierającym miliardy obrazów z całego Internetu.
Używając robotów indeksujących do „wyszukiwania” danych na stronach internetowych, te zestawy danych tworzą listy adresów URL obrazów wraz z ich podpisami w czymś, co może przypominać ogromny arkusz kalkulacyjny programu Excel. Jeśli opublikowałeś swoją grafikę online, zanim mogła znaleźć się w zbiorze danych obrazu, a zatem została wykorzystana do szkolenia sztucznej inteligencji, niezależnie od tego, czy wyraziłeś na to zgodę.
1. Zrezygnuj z zestawów danych szkoleniowych AI
Spawning to grupa artystów, których popularna strona internetowa Have I Been Trained? , można użyć do sprawdzenia, czy Twoje obrazy znajdują się w zbiorze danych LAION-5B. Biorąc to na siebie, później dodali funkcję rezygnacji ze zbioru danych. Zgodnie z umową, Spawning przekaże listy rezygnacji użytkowników firmie LAION, która powiedziała, że uszanuje prośbę i usunie te obrazy ze swojej kolekcji.
Narzędzie rezygnacji firmy Spawning nadal wymaga pewnych ulepszeń, ponieważ w chwili pisania tego tekstu nie można dodawać wielu obrazów jednocześnie. Nie ma też umów o rezygnacji z żadnym innym zbiorem danych, który mógłby zostać wykorzystany do szkolenia modeli sztucznej inteligencji.
Ponieważ wiele firm zajmujących się sztuczną inteligencją nie ujawnia dokładniejszych szczegółów na temat budowy swoich modeli AI, czasami nie jest jasne, jakiego zestawu danych używają. DALL-E to jeden z popularnych generatorów grafiki AI, który nie udostępnia tych informacji.
Alternatywnie, jeśli używasz DeviantArt do udostępniania swoich dzieł sztuki, Twoje obrazy są teraz domyślnie chronione przed użyciem w zestawach danych szkoleniowych AI. Działa poprzez oznaczenie twojego obrazu słowem „noai”, co oznacza, że jeśli okaże się, że model AI użył twojego obrazu do szkolenia, będzie to naruszenie Warunków korzystania z usługi DeviantArt.
Oczywiście te środki rezygnacji nie są egzekwowane, więc osoby trzecie mogą je zignorować, jeśli zechcą. Chociaż nie jest to najskuteczniejsze rozwiązanie, wyznacza drogę do większej liczby zasad i przepisów chroniących pracę artystów.
W idealnym świecie ludzie mieliby możliwość wyrażenia zgody, a nie rezygnacji. Mamy nadzieję, że stanie się to w przyszłości. Aby uzyskać więcej informacji na temat usuwania obrazów ze zbiorów danych, zapoznaj się z naszym przewodnikiem dotyczącym rezygnacji ze szkolenia AI.
2. Prawa autorskie do Twojej pracy
Sądy zwróciły uwagę na to, czy praktyka zgarniania obrazów z Internetu jest legalna. A pomaganie artystom w przedstawianiu dowodów po ich stronie to prawa autorskie do obrazów, których są właścicielami.
Na początku 2023 roku znana artystka komiksowa, Sarah Andersen , była częścią grupy artystów, którzy wnieśli pozew przeciwko firmom AI Stability AI i Midjourney, a także stronie internetowej DeviantArt, która udostępnia dzieła sztuki, za zeskrobywanie dzieła ich sztuki bez zgody — w tym sztuki niezliczonych milionów innych artystów.
Innym przykładem jest witryna ze zdjęciami stockowymi, Getty Images, która złożyła pozew przeciwko Stability AI za skrobanie jej obrazów bez licencji. Sposób, w jaki odkrył, że wykorzystywane są jego obrazy chronione prawami autorskimi, polegał na tym, że obrazy generowane przez sztuczną inteligencję zaczęły pojawiać się ze znakiem wodnym Getty Images – dość oczywista gratka.
Chociaż legalność zostanie ustalona w odpowiednim czasie, prawa autorskie są jedną z niewielu rzeczy, które można wykorzystać do walki o prawa do pracy artystów, co widać w przypadkach, o których wspominaliśmy. Może nie być na bieżąco z technologią sztucznej inteligencji, ale może zwiększyć twoją obronę, posuwając się naprzód.
Jest to praktyka, której i tak warto się nauczyć, aby chronić swoją pracę przed kradzieżą, niezależnie od tego, czy w grę wchodzi sztuczna inteligencja. Postępuj zgodnie z naszym przewodnikiem dotyczącym zabezpieczania zdjęć prawami autorskimi, aby uzyskać szczegółowe informacje o tym, jak to wszystko działa.
3. Blokuj roboty indeksujące witryny za pomocą pliku Robots.txt
Zestawy danych obrazu są w stanie indeksować tylko dużą liczbę obrazów, ponieważ używają czegoś, co nazywa się robotami indeksującymi. Jak sama nazwa może sugerować, przeszukują strony internetowe w poszukiwaniu określonych informacji.
Niektóre roboty indeksujące są przydatne i pomagają wyszukiwarkom, takim jak Google, znaleźć i zaindeksować najistotniejsze informacje do wyświetlenia na stronie wyników wyszukiwania. Inne są używane do przeszukiwania stron internetowych w celu włączenia obrazów do zestawów danych szkoleniowych AI.
W tym miejscu pojawia się plik Robots.txt. Robots.txt to plik tekstowy, który można umieścić w kodzie zaplecza witryny internetowej, aby informować roboty indeksujące, co mogą, a czego nie mogą skanować. Możesz go użyć, aby uniemożliwić robotowi przeglądanie określonych stron lub plików, co jest przydatne, jeśli nie chcesz, aby Twoje obrazy były używane przez sztuczną inteligencję.
Jeśli chcesz dowiedzieć się więcej, przeczytaj nasz przewodnik o tym, czym jest robot indeksujący i jak działa. Jeśli masz witrynę internetową, poproś swojego programistę o osadzenie pliku Robots.txt w kodzie witryny, aby zapobiec usuwaniu obrazów przez zestawy danych szkoleniowych AI.
Czego można się spodziewać w przyszłości
Konkurowanie z modelami AI jest frustrujące, ale więcej rozwiązań jest w drodze.
Z jednej strony postępowanie sądowe jest w trakcie ustalania, co jest legalne i jak działa prawo autorskie z generowaniem obrazów AI. Wyniki tych debat publicznych określą standardy prawne i być może szybkie regulacje, których firmy AI będą musiały przestrzegać.
Z drugiej strony programiści zastanawiają się, jak rozwiązać problem za pomocą nowej technologii. W jednym obiecującym badaniu badania pokazują, że można użyć sztucznej inteligencji do walki z samą sobą, czyniąc obraz „niemożliwym do nauczenia się” w zestawach danych szkoleniowych AI.
Jak wyjaśnia dr Sarah Monazam Erfani z University of Melbourne : „Opracowaliśmy technikę opartą na uczeniu maszynowym, która identyfikuje i zmienia tyle pikseli w obrazie, aby zmylić sztuczną inteligencję i przekształcić go w obraz„ niemożliwy do nauczenia się ”. Zmiana jest bardzo mała i niedostrzegalna dla ludzkiego oka, ale wprowadza wystarczająco dużo „szumów” do obrazu, aby uczynić go bezużytecznym do trenowania sztucznej inteligencji”.
Jeśli jesteś osobą dotkniętą przez generatory obrazów AI, warto zabrać głos, aby wywrzeć presję na te firmy, aby zmieniły swoje praktyki. Tylko dzięki silnym opiniom ze strony społeczności DeviantArt stworzono nową opcję rezygnacji, więc nie zapomnij przekazać opinii platformom do udostępniania dzieł sztuki i firmom zajmującym się sztuczną inteligencją.
Obrona Twoich obrazów przed sztuczną inteligencją
Możesz chronić swoje obrazy przed generatorami grafiki AI, rezygnując z zestawów danych szkoleniowych AI, chroniąc prawa autorskie do swoich zdjęć i używając standardu Robots.txt. Chociaż nie gwarantuje to, że Twoje obrazy pozostaną poza systemami sztucznej inteligencji, użycie wszystkich trzech metod zapewni najlepszą ochronę, dopóki nie zostanie opracowanych więcej rozwiązań.
Nadchodzą nowe narzędzia, w tym sposoby niepostrzeżenie dostosowujące obraz, aby sztuczna inteligencja nie mogła się z niego uczyć, co czyni go bezużytecznym do szkolenia generatorów grafiki AI. Tymczasem nie poddawaj się. Nadal istnieją sposoby ochrony obrazów przed generatorami grafiki AI.
Dodaj komentarz