Pedofilia i pornografia zbyt łatwo dostępne na TikToku – donosi Forbes

TikTok praktykuje “zero tolerancji” dla materiałów z przemocy seksualną wobec dzieci. Tyle tylko, że ta dobra w założeniach polityka jest dziurawa – jak donosi magazyn Forbes[1], który przeprowadził ostatnio dokładne śledztwo. Problem dotyczy wielu mediów społecznościowych, ale akurat ta platforma jest niezwykle popularna w najmłodszym sektorze wiekowym – stąd problem jest szczególnie naglący i groźny.

Z zewnątrz wszystko wygląda w porządku, wystarczy się jednak zalogować na specjalne prywatne konta, których jest całkiem sporo, by uzyskać dostęp do nagich zdjęć i rozmaitych  aktów seksualnych z udziałem dzieci i nastolatków (np. w trybie „Only me” lub “posting-in-private”). Przestępcy stosują tu specjalne wabiki. Wykorzystywanie prywatnych, zamkniętych  przestrzeni w mediach społecznościowych w celach przestępczych to problem nie tylko TikTok’a, tyle tylko, że ta ostatnia platforma jest niezwykle popularna w najmłodszym sektorze wiekowym – ponad połowa osób nieletnich w USA używa tej platformy przynajmniej raz dziennie.

Jeśli chodzi o polskich użytkowników TikTok’a wg danych opublikowanych przez portal Wirtualne Media[2] (raport OpenMobi) pod koniec 2021 roku platforma ta miała w Polsce blisko 8 mln użytkowników w większości z pokolenia Z,  80% ogółu użytkowników to kobiety. „Dominującą grupę na platformie stanowią obecnie młodzi dorośli, a więc osoby w przedziale 18-34 lat co stanowi 60 proc. łącznej bazy użytkowników. Tuż za nimi z wynikiem 34 proc. plasuje się młodzież w wieku 13-17 lat. Zaledwie 5 proc. użytkowników platformy stanowią osoby w przedziale wiekowym między 35 a 44 lat”[3]. Niewiele pomoże to, że na polskim TikTok’u jest także konto policji.

Dziurawy system zabezpieczeń

Seara Adair, która sama kiedyś doświadczyła przemocy seksualnej, ostrzega przed tym niebezpiecznym procederem w sieci. Gdy zgłosiła TikTok’owi materiały nt wykorzystywania seksualnego dzieci umieszczone na jednym z prywatnych kont (przez ich oznaczenie) otrzymała wkrótce powiadomienie, że nie zauważono złamania procedur. Gdy w sprawę włączył się Forbes i oflagował dane konta jako niewłaściwe – także nie stwierdzono naruszenia procedur, dopiero zgłoszenie mailowe zadziałało i newralgiczne konta zostały usunięte. To wyraźny sygnał, że sztuczna inteligencja nie wykrywa więc sama z siebie zagrożeń. Sprawą zainteresował się prokurator ze stanu Teksas, a Seara Adair zawiadomiła także Departament Bezpieczeństwa Wewnętrznego. Rzecznik prasowy platformy Mahsau Cullinane  odpowiedziała Forbsowi w mailu, że TikTok przejawia  “zero tolerancji dla wykorzystania seksualnego dzieci i tych wstrętnych zachowań, które są stanowczo zakazane na platformie”. „Kiedy zauważamy jakieś treści, natychmiast je usuwamy, blokujemy konta, a sprawę zgłaszamy do  National Center for Missing & Exploited Children”- relacjonuje Forbes.

Forbes jednak przeprowadził dokładne śledztwo. Wymienia konkretne skróty, używane do oznaczania tego rodzaju przestępczych kont, a nawet podaje ich przykłady i zwraca uwagę, że konta na TikToku prowadzą często na konta na innych platformach, gdzie znajdują się jeszcze bardziej przestępcze materiały np. na Snap i Discord. „Nie bądź nieśmiała”, „zabawmy się”, „szukam dziewczyn …” ( w takim a takim wieku).

To problem społeczny, ale także w dużej mierze techniczny – bo takie pornograficzne czy pedofilskie konta są zakładane z założenia nawet na bardzo krótko, liczy się efekt, wyścig z czasem jest nawet wliczony w ryzyko. Haley McNamara, dyrektor International Centre on Sexual Exploitation zwraca uwagę na rzeczywistą, a nie deklarowaną skuteczność zabezpieczeń. Inna sprawa, to fakt, że jej zdaniem firmy w obrębie nowych technologii wprowadzają nowe oferty bez faktycznego sprawdzenia, jak dany produkt wpływa na użytkowników. 

Rodzice powinni być świadomi tego typu zagrożeń. Zwłaszcza, że jak relacjonuje Seara Adair, każdy poszkodowany nastolatek, który się do niej zgłaszał, nie powiedział o tym rodzicom.

CZYTAJ TAKŻE: Smartfon – cichy zabójca. Jak telefon niszczy organizm i relacje?

Czy taka odpowiedzialność społeczna wystarczy?

Ma koncie rzecznika prasowego TikTok’a Mahsau Cullinane na Linkedin znajdziemy kilka ogłoszeń świadczących o próbie kreowania (rzeczywistej?, ale czy skutecznej?) odpowiedzialności społecznej platformy:  „Praktyki cyfrowego rodzicielstwa”, „Zaufanie i pewność. Bezpieczeństwo on-line  w niepewnym świecie”. Na „Brand safety week”, zaplanowano wystąpienia: „TikTok wpada do rodziny: wyposażanie nastolatków i rodziców, aby zawsze prosperowali w świecie cyfrowym” – to kilka inicjatyw z ostatnich miesięcy. Znajdziemy tu także informację o nawiązaniu współpracy z Narodowym Centrum Poszukiwanych i Eksploatowanych Dzieci (National Center for Missing & Exploited Children[4]) i info o uczestnictwie teamu z TikTok’a  w ramach „Gali Nadziei” organizowanej w tej instytucji.

Na stronie samej firmy w dziale widnieje informacja: „TikTok jest czołową platformą dla krótkich filmów nagrywanych za pomocą urządzeń mobilnych. Naszą misją jest inspirowanie kreatywności i przynoszenie radości. TikTok prowadzi działalność globalną w oddziałach w Los Angeles, Nowym Jorku, Londynie, Paryżu, Berlinie, Dubaju, Bombaju, Singapurze, Dżakarcie, Seulu i Tokio.” Dopiero tu widać, że umożliwianie wymiany krótkich, dynamicznych, przyciągających uwagę i zapętlanych filmików to gigantyczny biznes. Istnieje wszak zakładka do wykupienia reklamy, skąd dowiadujemy się, że platforma ma ponad 1 miliard użytkowników na świeice, a 92% użytkowników podejmuje akcje po obejrzeniu reklamy[5].

Tu następuje podział na biznes różnych rozmiarów. „Naszym priorytetem jest tworzenie przyjaznego środowiska, w którym wszyscy czują się bezpiecznie i komfortowo” – dowiadujemy się jednak ze strony poświęconej bezpieczeństwu”[6]. Znajdziemy także nawet zakładkę z zapobieganiem wykorzystywania seksualnego dzieci na TikTok”[7] z podstawowymi informacjami oraz „Pomocne informacje związane z kwestiami wykorzystywania seksualnego”[8]. Tyle tylko, że pewnie mało kto zajrzy po pomoc właśnie tutaj. Dobrze jednak, że dowiadujemy się, że ofiary wykorzystania seksualnego często obwiniają same siebie, że trzeba porozmawiać z zaufaną osobą, że trudne emocje trzeba przepracować w kontakcie z profesjonalnym personelem zdrowia psychicznego. 

Jak mądrze zapobiegać?

Tego typu informację znajdują się jednak poza „rzeką” treści i rozrywki. Złaknione atencji i uwagi nastolatki z racji na wiek pełne kompleksów, podkręcone zachęcającym komunikatem o swojej wyjątkowości są jednak często bezbronne i dają się namówić do rzeczy, których potem żałują, zwłaszcza, że często przestępcy używają szantażu chcąc więcej i więcej. Rozmawiajmy o tych niebezpieczeństwach z dziećmi i obdarzajmy je naszą uwagą i naszymi komplementami, aby były bardziej odporne na tego typu aktywność.

Jak chronić swoje dziecko przed pornografią?

Stowarzyszenie Twoja sprawa organizuje szkolenia dla rodziców: “Jak chronić swoje dziecko przed pornografią?”. Zaproszone są szkoły, które chcą zorganizować takie szkolenie dla rodziców swych uczniów, zorganizowane grupy rodziców i rady rodziców. Chęć udziału w szkoleniu oraz pytania można kierować na adres: szkolenia@twojasprawa.org.pl. Więcej informacji: www.twojasprawa.org.pl.


[1] https://www.forbes.com/sites/alexandralevine/2022/11/11/tiktok-private-csam-child-sexual-abuse-material/

[2] https://www.wirtualnemedia.pl/artykul/uzytkownik-tiktoka-polska

[3] Czytaj więcej na: https://www.wirtualnemedia.pl/artykul/uzytkownik-tiktoka-polska

[4] https://www.missingkids.org/home

[5] https://www.tiktok.com/business/en?enter_method=bottom_navigation&tt4b_lang_redirect=1

[6] https://www.tiktok.com/safety/pl-pl/

[7] https://www.tiktok.com/safety/pl-pl/prevent-csam/

[8] https://www.tiktok.com/safety/pl-pl/sexual-assault-resources/

Afirmacja Extra. Wesprzyj nowy projekt autorów Afirmacji