Modele generatywnej sztucznej inteligencji muszą zostać przeszkolone przy użyciu ogromnej ilości danych źródłowych, co jest problemem dla kreatywnych profesjonalistów, którzy nie chcą, aby modele uczyły się na tworzonych przez nich obrazach. Dzięki nowemu narzędziu programistycznemu artyści wizualni mają teraz sposób na zatruwanie sztucznej inteligencji wykorzystującej ich prace. Nightshade („wilcza jagoda”, a SI jest tu łapczywym wilkiem) został początkowo wprowadzony w październiku 2023 roku jako narzędzie do rzucania wyzwań dużym generatywnym modelom sztucznej inteligencji. Stworzone przez naukowców z University of Chicago, Nightshade jest „ofensywnym” narzędziem, które może chronić pracę twórców poprzez „zatruwanie” obrazu i czynienie go nieodpowiednim do treningu AI. Program jest teraz dostępny dla każdego, ale raczej nie wystarczy, aby powstrzymać współczesny biznes kręcący się wokół generatywnej sztucznej inteligencji. Naukowcy twierdzą, że obrazy przetwarzane za pomocą Nightshade mogą sprawić, że modele sztucznej inteligencji będą wykazywać nieprzewidywalne zachowanie, takie jak np. generowanie obrazu pływającej torebki dla polecenia stworzenia obrazu krowy w kosmosie. Nightshade może zniechęcić trenerów modeli SI oraz firmy zajmujące się sztuczną inteligencją, które nie przestrzegają praw autorskich, list opt-out i dyrektyw do-not-scrape zawartych w pliku robots.txt.
fot. MIT Review
Jak twierdzą naukowcy, Nightshade został pomyślany jako „optymalizacja wielozadaniowa, która minimalizuje widoczne zmiany w oryginalnym obrazie”. Po zastosowaniu Nightshade na obrazie, ludzie widzą zacienioną grafikę, która jest w dużej mierze niezmieniona w stosunku do oryginału, ale model sztucznej inteligencji typu np. Stable Diffusion rozpoznaje już zupełnie inną kompozycję. Modele sztucznej inteligencji wytrenowane na obrazach zatrutych Nightshade wygenerowałyby na przykład obraz przypominający psa po dostaniu polecenia narysowania kota. Nieprzewidywalne wyniki mogą sprawić, że trening na obrazach zatrutych za pomocą Nightshade będzie mniej użyteczny i może skłonić firmy zajmujące się sztuczną inteligencją do trenowania wyłącznie na darmowych lub licencjonowanych treściach. Naukowcy twierdzą, że po zastosowaniu Nightshade obraz krowy na zielonym polu algorytmy sztucznej inteligencji zinterpretują jako dużą skórzaną torebkę leżącą w trawie. Jeśli artyści dostarczą algorytmowi wystarczającą liczbę zacienionych obrazów krowy, model sztucznej inteligencji zacznie generować obrazy skórzanych przedmiotów oraz innych niepowiązanych kompozycji dla zapytań o krowy. Obrazy przetwarzane przez Nightshade są wystarczająco solidne, aby przetrwać tradycyjną manipulację obrazem, w tym przycinanie, kompresję, redukcję szumów czy wygładzanie pikseli. Nightshade może współpracować z Glaze, innym narzędziem zaprojektowanym przez naukowców z University of Chicago, aby jeszcze bardziej zakłócić nadużywanie treści wykorzystywanych do uczenia maszynowego.
fot. MIT Review
Glaze oferuje „defensywne” podejście do zatruwania treści i może być wykorzystywane przez indywidualnych artystów do ochrony swoich dzieł przed „atakami naśladującymi styl”, wyjaśniają naukowcy. Z kolei Nightshade jest narzędziem ofensywnym, które działa najlepiej, gdy grupa artystów łączy siły, aby spróbować zakłócić model AI znany z wykorzystywania ich prac. Zespół Nightshade opublikował pierwszą publiczną wersję aplikacji do zatruwania sztucznej inteligencji. Naukowcy wciąż testują interakcję obu narzędzi podczas przetwarzania tego samego obrazu i ostatecznie połączą oba podejścia, przekształcając Nightshade w dodatek do Webglaze.
DALL-E
To jest uproszczona wersja artykułu. KLIKNIJ aby zobaczyć pełną wersję (np. z galeriami zdjęć)
Spodobał Ci się ten news? Zobacz nasze największe HITY ostatnich 24h
Skomentuj