W ostatnich dniach na Facebooku pojawił się sfabrykowany film przedstawiający pożar wieży CN Tower. Eksperci podkreślają, iż to kolejny przykład potrzeby wyraźnego oznaczania materiałów tworzonych przez sztuczną inteligencję na platformach społecznościowych.
Jeden z komentatorów stwierdził wręcz, iż osoba odpowiedzialna za publikację powinna ponieść konsekwencje karne za celowe rozpowszechnianie nieprawdziwych informacji, które mogą wywołać panikę wśród odbiorców.
Zespół prasowy CN Tower zapewnił, iż w znanym torontońskim obiekcie nie doszło do żadnego incydentu z ogniem. Tymczasem materiał wideo został odtworzony ponad 20 milionów razy.
Film trwający 24 sekundy, który trafił na Facebooka w poniedziałek, ukazuje osoby stojące nad brzegiem jeziora i nagrywające CN Tower, z której szczytu unosi się gęsty, szary dym.
„Co się tam dzieje?” – słychać głos.
W dalszej części nagrania widać inne ujęcie wieży — z poziomu ulicy w centrum miasta. Ogień rozprzestrzenia się, pojawiają się płomienie i czarny dym, a kierowcy reagują sygnałami dźwiękowymi.
„O rany!” – mówi ktoś w tle.
Końcowa scena pokazuje z lotu ptaka szczyt wieży, który zdaje się płonąć i być zniszczony.
W oświadczeniu opublikowanym w środę CN Tower podkreśliło: „To nagranie to deepfake — jest całkowicie nieprawdziwe. Nie było żadnego pożaru, a wieża funkcjonuje normalnie i nie została uszkodzona”.
„Niestety, to nie pierwszy raz, kiedy sztuczna inteligencja została użyta do stworzenia fałszywego obrazu CN Tower” – dodano.
Francis Syms, prodziekan wydziału technologii w Humber Polytechnic, zaznaczył, iż w dzisiejszych czasach dezinformacja może mieć realne skutki, szczególnie jeżeli ludzie nie są świadomi, iż mają do czynienia z fałszywką.
„Uważam, iż autorzy takich materiałów powinni jasno je oznaczać jako wygenerowane przez AI. To podstawowa sprawa” – powiedział Syms.
Zauważył, iż ostrzeżenia informujące o użyciu sztucznej inteligencji mogłyby pomóc użytkownikom rozpoznać nieprawdziwe treści. Dodał również, iż rząd federalny mógłby łatwo wprowadzić odpowiednie przepisy. Problem polega jednak na tym, iż prawo nie nadąża za tempem rozwoju technologii.
„Obecnie działamy w strefie niepewności. Kiedy ktoś udostępnia coś w sieci, powinniśmy w pierwszej kolejności zweryfikować źródło. Problem w tym, iż wiele osób przyjmuje takie nagrania za prawdziwe i rozpowszechnia je dalej” – dodał.
„Policja ma ograniczone możliwości reagowania w takich przypadkach. Mogą jedynie zgłosić problem administratorom serwisu i poprosić o dodanie etykiety wskazującej na treść wygenerowaną przez AI”.
CBC Toronto poprosiło federalne ministerstwo ds. AI o stanowisko w tej sprawie.
CBC Toronto zwróciło się również do Facebooka z pytaniem, czy planuje oznaczać tego typu treści.
Firma Meta, właściciel Facebooka, podaje na swojej stronie, iż planuje rozszerzyć zakres oznaczeń „informacje o sztucznej inteligencji” na większą liczbę obrazów, filmów i dźwięków — o ile wykryje charakterystyczne wskaźniki AI lub zostanie to zgłoszone przez użytkowników.
Mimo to Syms uważa, iż sama etykieta to za mało, by przeciwdziałać rozpowszechnianiu dezinformacji.
Według niego najlepszą praktyką pozostaje podchodzenie do wszelkich materiałów w internecie z dystansem — należy zakładać, iż mogą być zmanipulowane, i sprawdzać informacje u wiarygodnych źródeł.
Jeffrey Dvorkin, wykładowca Massey College na Uniwersytecie w Toronto, powiedział, iż materiał wygląda tak nienaturalnie, iż autor powinien odpowiadać karnie zgodnie z artykułem 372 Kodeksu karnego Kanady, który zakazuje rozpowszechniania fałszywych treści w celu zastraszenia lub wprowadzenia w błąd.
Podkreślił, iż takie działania mogą odstraszyć innych od tworzenia tego typu manipulacji, a jednocześnie uświadamiają, iż tworzenie i publikacja deepfake’ów jest nieodpowiedzialna i szkodliwa społecznie.
Według Dvorkina przygotowanie takiego filmu jest „jednoznacznie” niezgodne z prawem.
Osoba, która z premedytacją rozpowszechnia fałszywe informacje, by wywołać panikę, może zostać skazana choćby na dwa lata więzienia. Jego zdaniem RCMP powinno wszcząć postępowanie i postawić zarzuty sprawcy. „To nie jest drobnostka. To sprawa poważna” – podkreślił.
Policja w Toronto natomiast poinformowała, iż w tej chwili nie prowadzi dochodzenia w tej sprawie.
„Nie wszczęto żadnej procedury, bo film nie przedstawia rzeczywistego wydarzenia” – napisała w wiadomości e-mailowej konstabl Shannon Eames, rzeczniczka torontońskiej policji.
Autorem filmu jest Adrian Gee, który nazywa siebie „twórcą wiralowych momentów od 2014 roku”. W swoim profilu na Facebooku pisze, iż w tej chwili uczy ludzi tworzenia treści przy użyciu AI.
Gee nigdzie nie potwierdził, iż wykorzystał sztuczną inteligencję, ale wiele szczegółów sugeruje jej użycie — nienaturalne efekty dymu, brak numerów rejestracyjnych pojazdów i ogólny wygląd klipu.
CBC Toronto próbowało skontaktować się z Gee przez Facebooka i Instagram, ale jak dotąd nie otrzymało odpowiedzi.
Philip Mai, współkierownik laboratorium badań mediów społecznościowych przy Uniwersytecie Metropolitalnym w Toronto, zauważył, iż większość internautów w komentarzach pod filmem nie dała się oszukać.
Jednak jego zdaniem użytkownicy nie powinni udostępniać takich materiałów, a twórcy, którzy nie oznaczają treści AI, powinni ponosić odpowiedzialność. Ważne też, by podnieść poziom edukacji medialnej, tak aby ludzie potrafili samodzielnie rozpoznać fałszywki.
„W tej chwili to od nas zależy, czy zdołamy ograniczyć rozprzestrzenianie się tej cyfrowej zarazy. Musimy po prostu przestać udostępniać niesprawdzone informacje” – podsumował Mai.