Przejdź do menu Przejdź do treści

AI Foundation

przedsiębiorstwo z siedzibą w San Francisco założone w 2017 r. w celu tworzenia darmowych narzędzi wykorzystujących technologię sztucznej inteligencji mających na celu udaremnienie negatywnych skutków jej działania, jak również produktów komercyjnych. Na jego rozbudowaną strukturę składają się: liderzy, partnerzy inwestycyjni, Globalna Rada ds. Sztucznej Inteligencji i Rada ds. Działalności Non-Profit. Misją projektu jest rozwijanie sztucznej inteligencji, a jednocześnie przewidywanie ryzyka i zapobieganie niebezpieczeństwom związanym z jej zastosowaniem w celach manipulacji. Startup współpracuje w tym celu ze światowymi innowatorami, naukowcami, inżynierami i inwestorami.

Jednym z najbardziej znanych osiągnięć przedsiębiorstwa jest oprogramowanie Reality Defender wykrywające w sieci potencjalnie fałszywe przekazy medialne. Jak podkreślają twórcy, choć prawie każdy obraz w internecie jest zmodyfikowany, o wiele większym zagrożeniem jest manipulacja obrazami w wiadomościach dostępnych w sieci. Ważne jest to, jak bardzo obraz lub film został zmieniony, dlaczego i jakie są konsekwencje tej zmiany w ogólnym kontekście danego newsa.

Podobnie jak ochrona antywirusowa, Reality Defender skanuje i analizuje za pomocą sztucznej inteligencji w poszukiwaniu zmian każdy napotkany przez użytkownika obraz, wideo i inne media. Program opiera się na społeczności użytkowników zgłaszających podejrzane materiały, alarmujących o sfałszowanej zawartości i w ten sposób szkolących agentów AI. Jednym z najważniejszych jego twórców jest S. Suwajanakorn – autor narzędzia, które zasilane odpowiednią liczbą filmów i zdjęć ukazujących ruch ust i zębów, może stworzyć realistyczny fałszywy film naśladujący sposób mówienia danej osoby. Po 14 godzinach analizy wideo z B. Obamą pozwoliło ono stworzyć algorytm umożliwiający odtworzenie jego wizerunku wypowiadającego dowolny zadany tekst. Narzędzie Reality Defender stworzone przez AI Foundation ma na celu eliminację sytuacji, w których np. przez fałszywe wideo światowego przywódcy ogłaszającego uderzenie nuklearne zostanie wywołana wojna.

O ile pisanie fałszywych wiadomości może być tanie i łatwe, o tyle trudno jest manipulować wideo bez żadnych śladów. Istnieje zatem także możliwość wyszukiwania algorytmów, które pozwalają wychwycić nienaturalność, a co za tym idzie, sztuczny charakter danego filmu. Przedsiębiorstwo współpracuje także z twórcami treści nad wypracowaniem „Honest AI watermark” („znaku uczciwego AI”), który będzie miał na celu wyraźną identyfikację tekstów, obrazów, dźwięków i filmów wygenerowanych przy użyciu technologii sztucznej inteligencji.

Jakub Idzik, Rafał Klepka

AIFoundation.com (dostęp 25.03.2019); Google Engineer Designs a Tool to Discern Fake Video and Images, 13.04.2018, CIOBulletin.com (dostęp 25.03.2019); Lying Eyes: Google Engineer Developing Tool to Spot Fake Video, 13.04.2018, TheStar.com.my (dostęp 25.03.2019); L. Floridi, Artificial Intelligence, Deepfakes and a Future of Ectypes, „Philosophy & Technology” 2018, vol. 31, no. 3; P. Korshunov, S. Marcel, DeepFakes: a New Threat to Face Recognition? Assessment and Detection; M. Koopman, A.M. Rodriguez, Z. Geradts, Detection of Deepfake Video Manipulation, Proceedings of the 20th Irish Machine Vision and Image Processing Conference, IMVIP 2018