Stanford Internet Observatory przedstawił raport mówiący o tym, że popularne generatory obrazów, oparte o sztuczną inteligencję, były trenowane na zdjęciach zawierających pornografię dziecięcą. Chodzi o ponad 3200 zdjęć, które miały się znajdować w przygotowanej dla AI bazie zdjęć LAION. Ten raport stawia w nowym świetle produkcję pornografii dziecięcej przez niektóre oprogramowania oparte o sztuczną inteligencję.
Do niedawna badacze zajmujący się sztuczną inteligencją twierdzili, że zdolność tworzenia pornografii dziecięcej przez sztuczną inteligencją miała inną przyczynę. Uważano, że to wynik łączenia obrazów pochodzących z pornografii, na której są osoby dorosły ze zdjęciami na których widać niewinne dzieci. Jak jednak wynika z raportu Stanford Internet Observatory ta zdolność jest efektem szkolenia sztucznej inteligencji wprost na pornografii dziecięcej!
Sztuczna inteligencja trenowana na seksualnym wykorzystywaniu dzieci
Ponad 3200 zdjęć, które mają zawierać pornografię dziecięcą, znajdują się w ogromnej bazie danych o nazwie LAION. Jest to gigantyczny indeks obrazów i zdjęć, który został udostępniony publicznie w celu zwiększenia dostępu do rozwoju sztucznej inteligencji.
– To będzie o wiele bezpieczniejsze i sprawiedliwsze, jeśli będziemy mogli to zdemokratyzować, aby cała społeczność badawcza i cała ogólna publiczność mogły z tego korzystać – powiedział twórca LAION, niemeicki badacz i nauczyciel, Christoph Schumann.
Dzięki temu, że baza danych jest ogólnodostępna mógł powstać raport Stanford Internet Observatory. Autorzy twierdzą, że niektóre programy oparte o sztuczną inteligencję, które były trenowane na tej bazie danych tworzą pornografię dziecięca, ponieważ realistycznie odtwarzają i modyfikują zdjęcia o takiej tematyce.
W odpowiedzi LAION poinformował Associated Press, że tymczasowo usuwa swoje zestawy danych. W oświadczeniu organizacja non-profit napisała, że “mamy zero tolerancji dla treści nielegalnych i z uwagi na ostrożność zdjęliśmy zestawy danych LAION, aby upewnić się, że są bezpieczne przed ich ponownym opublikowaniem“.
– To nie jest łatwy problem do naprawienia i sięga wielu projektów generatywnej sztucznej inteligencji, które zostały “efektywnie wprowadzone na rynek” i stały się powszechnie dostępne ze względu na intensywną konkurencję w tej dziedzinie – powiedział David Thiel, główny technolog w Stanford Internet Observatory oraz autor raportu.
Według raportu z kilku tysięcy zdjęć zawierających pornografię dziecięcą korzystały najbardziej znane produkty do generowania obrazów za pomocą sztucznej inteligencji. Cała baza danych LAION, z której korzystają generatory obrazów oparte o AI, liczy około 5,8 miliarda obrazów.
źródło: apnews.com
CZYTAJ TAKŻE: Wysyp świadectw po filmie o Magdzie. Piszą do nas osoby skrzywdzone poprzez tranzycję
OGLĄDAJ TAKŻE: