Powrót do bloga

Sztuczna inteligencja i wielka polityka - w cieniu zagrożeń. Czy regulacje są potrzebne?

Sztuczna inteligencja i wielka polityka - w cieniu zagrożeń. Czy regulacje są potrzebne?

Sztuczna inteligencja i wielka polityka - w cieniu zagrożeń. Czy regulacje są potrzebne?

Żyjemy w czasach, w których technologia, media i polityka przeplatają się jak nigdy wcześniej. Platformy takie jak Facebook, Twitter czy Instagram stały się kluczowymi narzędziami komunikacji politycznej. Politycy mogą bezpośrednio komunikować się z wyborcami, a także mobilizować wsparcie i organizować za ich pośrednictwem kampanie. Na wykresie (Rys. 1) od Statista widać jak ogromny odsetek populacji poszczególnych krajów na świecie korzysta z mediów społecznościowych. W 2023 r. Chiny miały ponad miliard użytkowników mediów społecznościowych, co czyni je krajem o największej liczbie użytkowników. Przewiduje się, że do 2029 r. ta liczba przekroczy 1,2 miliarda. Jednak Indie mają przejąć prowadzenie, osiągając 1,3 miliarda użytkowników do 2029 r. Z kolei liczba użytkowników social mediów w Nigerii ma wzrosnąć z 47 milionów w 2023 r. do 114 milionów w 2029 r., co oznacza wzrost o 142%. ,,Cyfrowy elektorat’’ jest więc dla polityków przyszłością.

Liczba użytkowników mediów społecznościowych w wybranych krajach w 2023 i 2029 r. (w mln). Źródło

Jednak media społecznościowe mogą również być źródłem dezinformacji ifake newsów, co stanowi poważne wyzwanie dla współczesnej demokracji. Problem ten uwidacznia się np. w obrębie nadchodzących wyborów prezydenckich w Stanach Zjednoczonych, gdzie całkiem niedawno republikański kandydat Donald Trump fałszywie oskarżył swoja główną rywalkę, Kamalę Harris, o wykorzystywanie zdjęć stworzonych przez sztuczną inteligencję do zawyżania liczebności tłumów na jej wydarzeniach.

Pisząc o wpływie social mediówna współczesną politykę warto przytoczyć interesującą analizę case study, z publikacji European Parliamentary Research Service z 2019 roku, gdzie autorzy sprawdzili jak emocje i media społecznościowe mogą wpływać na opinię publiczną i wyniki wyborów w kontekście Brexitu. Referendum w sprawie członkostwa Wielkiej Brytanii w UE w 2016 roku było pierwszym "cyfrowym referendum". Obie strony kampanii – Leave i Remain - skupiły się na strategiach online, a media społecznościowe odegrały kluczową rolę w rozpowszechnianiu informacji. W tamtym czasie 41% brytyjskich użytkowników Internetu otrzymywało wiadomości przez media społecznościowe, głównie Facebook (29%) i Twitter (12%). Podczas kampanii opublikowano blisko 15 000 artykułów związanych z referendum. Media w swoim przekazie skupiły się na różnych kwestiach, takich jak gospodarka, imigracja i zdrowie, ale ton relacji byłczęsto stronniczy i emocjonalny. Kampania Leave była bardziej skutecznaw mediach społecznościowych, ponieważ miała bardziej emocjonalny przekaz. Tematy takie jak imigracja były często poruszane w negatywnym kontekście, a liczba relacji na temat imigracji wzrosła ponad trzykrotnie w ciągu 10-tygodniowej kampanii. Posty zwolenników Leave na Instagramie otrzymały o 26% więcej polubień i 20% więcej komentarzy niż posty Remain, a najbardziej aktywni użytkownicy również prowadzili kampanię na rzecz głosowania Leave. Na Facebooku, prawie połowa stron o największym zaangażowaniu była wyraźnie pro-Brexitowa, a posty na tych stronach wygenerowały ponad 11 milionów interakcji – trzy razy więcej niż strony pro-Remain. Zatem mechanizmy, za pomocą których platformy społecznościowe wzmacniają pewne komunikaty, mogą mieć rzeczywiste i czasami nieodwracalne konsekwencje.

Wróćmy jednak do nieuczciwych praktyk stosowanych w przestrzeni wirtualnej. Fake newsy to nieprawdziwe lub częściowo fałszywe informacje, które są umieszczane w Internecie po to, aby wprowadzić odbiorców w błąd. Taka metoda manipulacji często wykorzystywana jest do osiągania korzyści finansowych lub właśnie politycznych. Niestety, praktyka tajest bardzo toksyczna dla debaty publicznej i znacząco pogłębia polaryzacje społeczne. Innym ,,wynalazkiem’’ do fałszowania infosfery jest tzw. deep fake. To syntetyczne medium, gdzie obrazy, filmy lub dźwięk są manipulowane lub generowane za pomocą sztucznej inteligencji w taki sposób, aby uzyskać wysoce realistyczny efekt, ale - co do zasady - fałszywy. Deep fake wykorzystują techniki uczenia maszynowego, takie jak generatywne sieci przeciwstawne (Generative Adversarial Networks - GAN) w celu mapowania i replikowania mimiki twarzy, głosu i ruchów osoby.  GAN (Rys. 2) to zaawansowana technologia głębokiego uczenia stosowana do tworzenia realistycznych, ale fałszywych obrazów i filmów. Do efektywnego działania, GAN potrzebuje dużej ilości danych treningowych.

Architektura sieci GAN. Źródło

Technologia ta może być, podobnie jak fake newsy, wykorzystywana do rozpowszechniania dezinformacji. W trzecim tygodniu sierpnia na platformie X (dawniej Tweeter) pojawiło się video autorstwa @thedorbrothers przestawiające znane iwpływowe twarze m.in. Joe Bidena, Donalda Trumpa, Kamali Harris czy Marka Zuckerberga, a nawet papieża Franciszka, które rzekomo, z bronią w ręku,napadają na sklepy. Poziom realizmu tej produkcji jest naprawdę imponujący, co pokazuje dzisiejsze możliwości technologii w tym zakresie. Biorąc pod uwagę, że narzędzia potrzebne do tworzenia takich materiałów są stale rozwijane i udoskonalane, można pokusić się o stwierdzenie, że w przyszłości – być może całkiem niedalekiej – fałszywe treści będą tak trudne do identyfikacji, że nastąpi przesilenie chaosu informacyjnego i posypią się fale pozwów sądowych lub inna forma rezonansu społecznego, bowiem oskarżenia w oparciu o fałszywe materiały dowodowe mogą dotyczyć każdego z Nas. W jaki sposób, nie mając podstawy prawnej, udowodnić, że to nie Ty dokonałeś_aś przestępstwa lub wykroczenia?

Paradoks polega na tym, że w walce z fałszywymi treściami na pomoc również przychodzi sztuczna inteligencja. Materiały deep fake, ze względu na masowy dostęp do obrazów i filmów, są coraz powszechniejsze w mediach społecznościowych, co rodzi potrzebę skutecznego ich wykrywania. W odpowiedzi na to zjawisko, organizacje takie jak DARPA, Facebook i Google, prowadzą szeroko zakrojone badania nad metodami wykrywania deep fake'ów, korzystając z różnych podejść głębokiego uczenia, takich jak LSTM czy RNN.

Konkretnym przykładem nowatorskiego narzędzia detekcyjnego jest DeepfakeDetector od  McAfee, wypuszczone w sierpniu 2024 roku. Jest to nowatorskie narzędzie do wykrywania deepfake’ów audio. Analizując dźwięk w filmach i strumieniach na platformach takich jak YouTube i X (dawniej Twitter), ostrzega użytkowników o potencjalnych deepfake’ach. Działa bezpośrednio na urządzeniach użytkowników, co zapewnia prywatność, ale nie obsługuje treści chronionych DRM (DigitalRights Management).

Twórcy dostrzegają ryzyko związane z AI – ostatnie doniesienia

W sierpniu 2024 roku, Massechusetts Institute of Technology opublikowało AIRisk Repository, czyli bazę danych zawierającą ponad 700 zagrożeń związanych ze sztuczną inteligencją. Baza ta została opracowana na podstawie 43 istniejących frameworków i klasyfikacji ryzyk. Repozytorium dzielisię na trzy główne części AI Risk Database, które zawiera szczegółowe opisy ryzyk, cytaty i numery stron z oryginalnych źródeł, Causal Taxonomy of AI Risks do klasyfikowania ryzyka według przyczyn, czasu i sposobu ich występowania oraz Domain Taxonomy of AI Risks, które dzieli ryzyka na siedem głównych domen i 23 poddomeny, takie jak dezinformacja czy prywatność. Celem tego opracowania jest dostarczenie przeglądu krajobrazu zagrożeń związanych z AI,regularnie aktualizowanych źródeł informacji oraz wspólnej ramy odniesienia dla badaczy, deweloperów, firm, audytorów, decydentów i regulatorów.

W tym kontekście, warto wspomnieć, że niedawno OpenAI opublikowało swoje obawy dotyczące użytkowników, którzy zaczynają rozwijać emocjonalne przywiązanie do nowego modelu ChatGPT-4o. Dzięki zaawansowanym możliwościom, model ten generuje bardziej realistyczne odpowiedzi, co prowadzi do sytuacji, w których użytkownicy mogą przypisywać mu cechy ludzkie i tworzyć z nim więzi emocjonalne. Firma zauważyła, że niektórzy użytkownicy używają języka sugerującego tworzenie więzi z modelem, co może prowadzić do problemów zarówno dla jednostek, jak i społeczeństwa.

,,Podczas wczesnych testów, w tym red teamingu iwewnętrznych testów użytkowników, zaobserwowaliśmy, że użytkownicy używają języka, który może wskazywać na tworzenie połączeń z modelem. […]Socjalizacja podobna do ludzkiej z modelem AI może powodować efekty zewnętrzne wpływające na interakcje międzyludzkie. Na przykład użytkownicy mogą tworzyć relacje społeczne  z AI, zmniejszając swoją potrzebę interakcji międzyludzkich — teoretycznie korzystne dla osób samotnych, ale potencjalnie wpływające na zdrowe relacje. Dłuższa interakcja z modelem może wpływać na normy społeczne’’.

OpenAI zatem ostrzega, że takie zachowanie może zmniejszyć potrzebę interakcji międzyludzkich i wpłynąć na zdrowe relacje. Dlatego też firma planuje dalsze badania nad potencjalnym wpływem emocjonalnego przywiązania do AI i sposobami jego ograniczenia.

Co ciekawe, w raporcie firmowym dotyczącym GPT-4o oceniono również, jak artykuły i chatboty generowane przez nowy flagowy model wpływają na opinie uczestników na tematy polityczne (Rys. 3). Okazało się, że AI nie była bardziej przekonująca niż ludzie, ale w trzech przypadkach na dwanaście AI okazała się bardziej perswazyjna. Badano, jak klipy audio i interaktywne rozmowy generowane przez GPT-4o wpływają na preferencje polityczne uczestników. AI nie była bardziej przekonująca niż ludzie. Klipy audio AI miały 78% skuteczności klipów audio ludzi, a rozmowy AI miały 65% skuteczności rozmów ludzi. Tydzień po badaniu sprawdzono, jak trwałe były zmiany opinii. Efekt rozmów AI wyniósł 0,8%, a klipów audio -0,72%.

Wielkość efektu interwencji tekstowej na hipotetyczne opinie na tematy polityczne. Źródło

Otoczenie regulacyjne w zakresie AI - potrzebneczy nie?

Prawo wyraźnie nie nadąża za technologią. W cyberprzestrzeni nierzadko sprawcy różnego rodzaju nadużyć pozostają nieuchwytni, co sprawia, że czują się ,,bezkarni’’. W działalności przestępczej z coraz większym skutkiem wykorzystuje się nowoczesne technologie, w tym sztuczną inteligencję, aby np. wykradać oszczędności zwykłych ludzi czy też pozyskiwać wrażliwe dane osobowe. Stąd rodzi się istotne pytanie o potrzebę wprowadzenia regulacji prawnych w tym zakresie. Poniższa mapa przedstawia stosunek państw europejskich odnośnie wprowadzenia regulacji AI na poziomie krajowym.

Stan regulacji dotyczących sztucznej inteligencji w Europie. Źródło

Mając na uwadze, że sami twórcy AI badają i wskazują ryzyko związane z jej wykorzystaniem, konieczność wprowadzenia regulacji prawnych jest raczej sprawą oczywistą. Zasadniczą kwestią pozostaje ich zakres.

Pierwszym na świecie dużym podmiotem, który wprowadził ustawodawstwo dotyczące sztucznej inteligencji była UniaEuropejska. Opublikowany 12 lipca 2024 roku tzw. AI Act, jest dokumentem, którego celem jest ustanowienie jednolitych ram prawnych dla rozwoju, wdrażania i użytkowania systemów sztucznej inteligencji na terenie UE. Dyrektywa obejmuje szereg założeń, które mają na celu ochronę obywateli europejskiej wspólnoty. Po pierwsze zapewnia o bezpiecznym i etycznym rozwijaniu systemów AI, z poszanowaniem praw obywateli, a także stawia wymóg transparentności algorytmów i oznaczania treści generowanych przez AI. Co więcej, wyznacza zasady dotyczące zarządzania całym cyklem życia systemów AI, od ich projektowania po ich użytkowanie i określa zasady wykorzystania AI przez sektor publiczny, w tym przez policję, proces wyborczy czy sądy. Warto podkreślić, że kompleksowe unijne rozporządzenie zawiera również AI Act Compliance Checker, czyli narzędzie przydatne dla małych i średnich przedsiębiorstw, a także start’upów do sprawdzania zgodności ich systemów AI z unijnym aktem.  Aktualnie narzędzie to jest w fazie przygotowania.

Z drugiej strony zaś, dokument przyjęty przez Parlament Europejski w istotny sposób ogranicza Europę w zakresie postępu technologicznego i pozbawia możliwości rozwijania nowoczesnych technologii w równym lub zbliżonym stopniu jak inne ważne podmioty na arenie międzynarodowej, np. Chiny czy USA. Jako dowód można przywołać niedawną zapowiedź Meta, która nie planujewprowadzenia m.in. swojego multimodalnego modelu AI Llama 3.1 405B w Unii Europejskiej z powodu obaw regulacyjnych. Wcześniej podobną decyzję podjęła firma Apple wykluczając unijny rynek z wdrożenia Apple Intelligence.

Kolejnym przykładem organu regulacyjnego dla AI jest Brazylia, która już w 2021 roku zatwierdziła ustawę o sztucznej inteligencji. Mimo, że od początku nie zapewniała ona wystarczającego poziomu m.in. przejrzystości, to brazylijscy prawodawcy pracują nad jej ulepszaniem. W lipcu 2024 roku Brazylijska Krajowa Agencja Ochrony Danych (ANPD) nakazała Meta zaprzestanie wykorzystywania danych z Facebooka i Instagrama do trenowania swoich modeli AI. Decyzja ta została podjęta po raporcie Human Rights Watch, który wykazał, że w popularnym zbiorze danych używanym do trenowania modeli AI znalazły się zdjęcia brazylijskich dzieci, co stwarza ryzyko ich wykorzystania w deepfake’ach lub innych formach eksploatacji. W komentarzu do sprawy Meta stanowczo stwierdziła, że ich polityka „jest zgodna z brazylijskimi przepisami i regulacjami dotyczącymi prywatności”, a decyzja ANPD jest „krokiem wstecz dla innowacji, konkurencji w rozwoju AI i dalszych opóźnień w dostarczaniu korzyści AI ludziom w Brazylii”.

Pod koniec sierpnia 2024 roku również Kalifornia opublikowała projekt ustawy, która ma regulować najpotężniejsze modele sztucznej inteligencji. Ustawa wymaga od twórców modeli AI, które korzystają z zasobów obliczeniowych o wartości ponad 100 milionów dolarów, przestrzegania i ujawniania Planu Bezpieczeństwa w celu zapobiegania wyrządzaniu przez ich modele „krytycznych szkód”. Jeśli ustawa zostanie przyjęta, może wzmocnić pozycję UE w regulowaniu AI, a także może zainspirować inne stany do tworzenia własnych regulacji dotyczących. Niektóre firmy, jak Anthropic, popierają ustawępo wprowadzeniu zmian, a Elon Musk sugeruje jej uchwalenie. Warto dodać, że ustawa ma też szerokie grono przeciwników zarówno ze strony przemysłu, jak i demokratów w Kongresie USA. Meta, OpenAI, Google i inne firmy także sprzeciwiają się wprowadzeniu tej regulacji, twierdząc, że zaszkodzi ona rozwojowi oprogramowania open source i innowacjom w AI. Projekt ustawy musi zostać przyjęty przez Zgromadzenie Ogólne do 31 sierpnia, a następnie zatwierdzony przez Senat i podpisany przez gubernatora Kalifornii. Demokraci w Kongresie i Izba Handlowa USA wzywają Newsoma do zawetowania ustawy.

To tylko kilka przykładów jak globalne podmioty próbują ,,ubrać’’ sztuczną inteligencję w ramy regulacyjne. Mimo, że jesteśmy w początkowej fazie tego procesu, można przypuszczać, że kształtowanie otoczenia prawnego dla AI będzie skomplikowane, ponieważ musi uwzględniać tempo rozwoju tej technologii, a to jest naprawdę imponujące.

Co z tymi regulacjami?

Każda nowa technologia wiąże się zarówno ze zbiorem szans, jak i zagrożeń. Sztuczna inteligencja jest bardzo użytecznym asystentem w wielu branżach, ale korzyści płynące z jej rozwoju muszą iść w parze z bezpieczeństwem. Identyfikacja ryzyka i otoczenie prawne jest tym przypadku równie ważne. Wspomniany AI Act daje użytkownikom, czyli osobom, na które sztuczna inteligencja oddziałuje, możliwość obrony swoich praw, określone gwarancje bezpieczeństwa oraz ramy regulacyjne w zakresie jej wykorzystania. Jednak hamowanie lub organicznie rozwoju technologii AI w wyniku regulacji rynkowych jest faktem. Europa sama pozbawia się suwerenności technologicznej i zwiększa dystans w stosunku do globalnych graczy. Dyrektywa nie stanowi jedynie ograniczeń dla lokalnych producentów i konsumentów, ale jest również istotnym wyzwaniem dla firm spoza UE, które nie będą mogły oferować swoich produktów i usług na jednym z największych rynków gospodarczych na świecie.

Podsumowując, wraz z rozwojem nowych technologii, ustanowienie ram regulacyjnych jest niezbędne do prawidłowego funkcjonowania przedsiębiorstw i całych społeczeństw, jednak wymaga subtelnego podejścia, które będzie zapewniało komfort użytkownikom i jednocześnie nie będzie stanowiło bariery hamującej postęp społeczeństwi gospodarek. Ale czy można to pogodzić? Wypracowanie optymalnego rozwiązania będzie sporym wyzwaniem, zwłaszcza biorąc pod uwagę dynamikę rozwoju AI.  Istnieje bowiem zagrożenie, że podmioty, które,co do zasady, nie traktują priorytetowo np. ochrony danych osobowych, zdobędą taką przewagę w wyścigu technologicznym, która może okazać się niemożliwa do osiągniecia.

Sztuczna inteligencja i wielka polityka - wcieniu zagrożeń. Czy regulacje są potrzebne?

Żyjemy w czasach, w których technologia, media ipolityka przeplatają się jak nigdy wcześniej. Platformy takie jak Facebook,Twitter czy Instagram stały się kluczowymi narzędziami komunikacji politycznej.Politycy mogą bezpośrednio komunikować się z wyborcami, a także mobilizowaćwsparcie i organizować za ich pośrednictwem kampanie.Na wykresie (Rys. 1) od Statista widać jak ogromny odsetekpopulacji poszczególnych krajów na świecie korzysta z mediów społecznościowych. W 2023 r. Chiny miały ponadmiliard użytkowników mediów społecznościowych, co czyni je krajem o największejliczbie użytkowników. Przewiduje się, że do 2029 r. ta liczba przekroczy 1,2miliarda. Jednak Indie mają przejąć prowadzenie, osiągając 1,3 miliardaużytkowników do 2029 r. Z kolei liczba użytkowników social mediów w Nigerii mawzrosnąć z 47 milionów w 2023 r. do 114 milionów w 2029 r., co oznacza wzrost o142%. ,,Cyfrowy elektorat’’ jest więc dla polityków przyszłością.

Liczba użytkowników mediówspołecznościowych w wybranych krajach w 2023 i 2029 r. (w mln). Źródło

Jednak media społecznościowe mogą również być źródłem dezinformacji ifake newsów, co stanowi poważne wyzwanie dla współczesnej demokracji. Problem ten uwidaczniasię np. w obrębie nadchodzących wyborów prezydenckich w Stanach Zjednoczonych,gdzie całkiem niedawno republikański kandydat Donald Trump fałszywie oskarżył swoja główną rywalkę, KamalęHarris, o wykorzystywanie zdjęć stworzonych przez sztuczną inteligencję dozawyżania liczebności tłumów na jej wydarzeniach.

Pisząc o wpływie social mediówna współczesną politykę warto przytoczyć interesującą analizę case study, z publikacji European Parliamentary Research Service z 2019 roku, gdzieautorzy sprawdzili jak emocje i media społecznościowe mogą wpływać na opiniępubliczną i wyniki wyborów w kontekście Brexitu. Referendum w sprawieczłonkostwa Wielkiej Brytanii w UE w 2016 roku było pierwszym "cyfrowymreferendum". Obie strony kampanii – Leave i Remain - skupiłysię na strategiach online, a media społecznościowe odegrały kluczową rolę wrozpowszechnianiu informacji. W tamtym czasie 41% brytyjskich użytkownikówInternetu otrzymywało wiadomości przez media społecznościowe, głównie Facebook(29%) i Twitter (12%). Podczas kampanii opublikowano blisko 15 000 artykułówzwiązanych z referendum. Media w swoim przekazie skupiły się na różnychkwestiach, takich jak gospodarka, imigracja i zdrowie, ale ton relacji byłczęsto stronniczy i emocjonalny. Kampania Leave była bardziej skutecznaw mediach społecznościowych, ponieważ miała bardziej emocjonalny przekaz.Tematy takie jak imigracja były często poruszane w negatywnym kontekście, aliczba relacji na temat imigracji wzrosła ponad trzykrotnie w ciągu10-tygodniowej kampanii. Posty zwolenników Leave na Instagramieotrzymały o 26% więcej polubień i 20% więcej komentarzy niż posty Remain,a najbardziej aktywni użytkownicy również prowadzili kampanię na rzeczgłosowania Leave. Na Facebooku, prawie połowa stron o największymzaangażowaniu była wyraźnie pro-Brexitowa, a posty na tych stronachwygenerowały ponad 11 milionów interakcji – trzy razy więcej niż strony pro-Remain.Zatem mechanizmy, za pomocą których platformy społecznościowe wzmacniają pewnekomunikaty, mogą mieć rzeczywiste i czasami nieodwracalne konsekwencje.

Wróćmy jednak do nieuczciwych praktyk stosowanych w przestrzeniwirtualnej. Fake newsy to nieprawdziwe lubczęściowo fałszywe informacje, które są umieszczane w Internecie po to, aby wprowadzićodbiorców w błąd. Taka metoda manipulacji często wykorzystywana jest doosiągania korzyści finansowych lub właśnie politycznych. Niestety, praktyka tajest bardzo toksyczna dla debaty publicznej i znacząco pogłębia polaryzacjespołeczne. Innym ,,wynalazkiem’’ do fałszowania infosfery jest tzw. deep fake. Tosyntetyczne medium, gdzie obrazy, filmy lub dźwięk są manipulowane lubgenerowane za pomocą sztucznej inteligencji w taki sposób, aby uzyskać wysocerealistyczny efekt, ale - co do zasady - fałszywy. Deep fake wykorzystujątechniki uczenia maszynowego, takie jak generatywne sieci przeciwstawne (Generative Adversarial Networks - GAN) w celumapowania i replikowania mimiki twarzy, głosu i ruchów osoby.  GAN (Rys. 2) to zaawansowana technologia głębokiego uczenia stosowanado tworzenia realistycznych, ale fałszywych obrazów i filmów. Do efektywnegodziałania, GAN potrzebuje dużej ilości danych treningowych.Wróćmy jednak do nieuczciwych praktyk stosowanych w przestrzeniwirtualnej. Fake newsy to nieprawdziwe lubczęściowo fałszywe informacje, które są umieszczane w Internecie po to, aby wprowadzićodbiorców w błąd. Taka metoda manipulacji często wykorzystywana jest doosiągania korzyści finansowych lub właśnie politycznych. Niestety, praktyka tajest bardzo toksyczna dla debaty publicznej i znacząco pogłębia polaryzacjespołeczne. Innym ,,wynalazkiem’’ do fałszowania infosfery jest tzw. deep fake. Tosyntetyczne medium, gdzie obrazy, filmy lub dźwięk są manipulowane lubgenerowane za pomocą sztucznej inteligencji w taki sposób, aby uzyskać wysocerealistyczny efekt, ale - co do zasady - fałszywy. Deep fake wykorzystujątechniki uczenia maszynowego, takie jak generatywne sieci przeciwstawne (Generative Adversarial Networks - GAN) w celumapowania i replikowania mimiki twarzy, głosu i ruchów osoby.  GAN (Rys. 2) to zaawansowana technologia głębokiego uczenia stosowanado tworzenia realistycznych, ale fałszywych obrazów i filmów. Do efektywnegodziałania, GAN potrzebuje dużej ilości danych treningowych.

Architektura sieci GAN. Źródło

Technologia ta może być, podobnie jak fakenewsy, wykorzystywana do rozpowszechniania dezinformacji. W trzecim tygodniu sierpniana platformie X (dawniej Tweeter) pojawiło się video autorstwa @thedorbrothers przestawiające znane iwpływowe twarze m.in. Joe Bidena, Donalda Trumpa, Kamali Harris czy MarkaZuckerberga, a nawet papieża Franciszka, które rzekomo, z bronią w ręku,napadają na sklepy. Poziom realizmu tej produkcji jest naprawdę imponujący, copokazuje dzisiejsze możliwości technologii w tym zakresie. Biorąc pod uwagę, żenarzędzia potrzebne do tworzenia takich materiałów są stale rozwijane iudoskonalane, można pokusić się o stwierdzenie, że w przyszłości – być możecałkiem niedalekiej – fałszywe treści będą tak trudne do identyfikacji, żenastąpi przesilenie chaosu informacyjnego i posypią się fale pozwów sądowychlub inna forma rezonansu społecznego, bowiem oskarżenia w oparciu o fałszywe materiałydowodowe mogą dotyczyć każdego z Nas. W jaki sposób, nie mając podstawyprawnej, udowodnić, że to nie Ty dokonałeś_aś przestępstwa lub wykroczenia?

Paradokspolega na tym, że w walce z fałszywymi treściami na pomoc również przychodzisztuczna inteligencja. Materiały deep fake, ze względuna masowy dostęp do obrazów i filmów, są coraz powszechniejsze w mediachspołecznościowych, co rodzi potrzebę skutecznego ich wykrywania. W odpowiedzina to zjawisko, organizacje takie jak DARPA, Facebook i Google, prowadzą szeroko zakrojone badania nad metodami wykrywania deep fake'ów,korzystając z różnych podejść głębokiego uczenia, takich jak LSTM czy RNN.

Konkretnymprzykładem nowatorskiego narzędzia detekcyjnego jest DeepfakeDetector od  McAfee,wypuszczone w sierpniu 2024 roku. Jest to nowatorskie narzędzie dowykrywania deepfake’ów audio. Analizując dźwięk w filmach i strumieniach naplatformach takich jak YouTube i X (dawniej Twitter), ostrzega użytkowników opotencjalnych deepfake’ach. Działa bezpośrednio na urządzeniach użytkowników,co zapewnia prywatność, ale nie obsługuje treści chronionych DRM (DigitalRights Management).

Twórcydostrzegają ryzyko związane z AI – ostatnie doniesienia

W sierpniu 2024 roku, Massechusetts Institute ofTechnology opublikowałoAIRisk Repository, czyli bazę danych zawierającą ponad 700 zagrożeńzwiązanych ze sztuczną inteligencją.Baza ta zostałaopracowana na podstawie 43 istniejących frameworków i klasyfikacji ryzyk. Repozytorium dzielisię na trzy główne części AI Risk Database, które zawiera szczegółoweopisy ryzyk, cytaty i numery stron z oryginalnych źródeł, Causal Taxonomy ofAI Risksdo klasyfikowania ryzyka według przyczyn, czasu i sposobu ichwystępowania oraz Domain Taxonomy of AI Risks, które dzieliryzyka na siedem głównych domen i 23 poddomeny, takie jak dezinformacja czyprywatność. Celem tegoopracowania jest dostarczenie przeglądu krajobrazu zagrożeń związanych z AI,regularnie aktualizowanych źródeł informacji oraz wspólnej ramy odniesienia dlabadaczy, deweloperów, firm, audytorów, decydentów i regulatorów.

W tym kontekście, warto wspomnieć, że niedawno OpenAIopublikowało swoje obawy dotycząceużytkowników, którzy zaczynają rozwijać emocjonalne przywiązanie do nowegomodelu ChatGPT-4o. Dzięki zaawansowanym możliwościom, model ten generuje bardziej realistyczneodpowiedzi, co prowadzi do sytuacji, w których użytkownicy mogą przypisywać mucechy ludzkie i tworzyć z nim więzi emocjonalne. Firma zauważyła, żeniektórzy użytkownicy używają języka sugerującego tworzenie więzi z modelem, comoże prowadzić do problemów zarówno dla jednostek, jak i społeczeństwa.

,,Podczas wczesnych testów, w tym red teamingu iwewnętrznych testów użytkowników, zaobserwowaliśmy, że użytkownicy używająjęzyka, który może wskazywać na tworzenie połączeń z modelem. […]Socjalizacja podobna do ludzkiej z modelem AI może powodować efekty zewnętrznewpływające na interakcje międzyludzkie. Na przykład użytkownicy mogą tworzyćrelacje społeczne  z AI, zmniejszając swoją potrzebę interakcjimiędzyludzkich — teoretycznie korzystne dla osób samotnych, ale potencjalniewpływające na zdrowe relacje. Dłuższa interakcja z modelem może wpływać nanormy społeczne’’.

OpenAI zatem ostrzega, że takie zachowanie może zmniejszyć potrzebęinterakcji międzyludzkich i wpłynąć na zdrowe relacje. Dlatego też firma planuje dalsze badania nad potencjalnym wpływememocjonalnego przywiązania do AI i sposobami jego ograniczenia.

Co ciekawe, w raporciefirmowym dotyczącym GPT-4o oceniono również, jak artykuły i chatboty generowaneprzez nowy flagowy model wpływają na opinie uczestników na tematy polityczne(Rys. 3). Okazało się, że AI nie była bardziej przekonująca niż ludzie, ale wtrzech przypadkach na dwanaście AI okazała się bardziej perswazyjna. Badano,jak klipy audio i interaktywne rozmowy generowane przez GPT-4o wpływają napreferencje polityczne uczestników. AI nie była bardziej przekonująca niżludzie. Klipy audio AI miały 78% skuteczności klipów audio ludzi, a rozmowy AImiały 65% skuteczności rozmów ludzi. Tydzień po badaniu sprawdzono, jak trwałebyły zmiany opinii. Efekt rozmów AI wyniósł 0,8%, a klipów audio -0,72%.

Wielkość efektu interwencjitekstowej na hipotetyczne opinie na tematy polityczne. Źródło

Otoczenie regulacyjne w zakresie AI - potrzebneczy nie?

Prawowyraźnie nie nadążaza technologią. W cyberprzestrzeni nierzadko sprawcy różnego rodzaju nadużyć pozostająnieuchwytni, co sprawia, że czują się ,,bezkarni’’. W działalności przestępczejz coraz większym skutkiem wykorzystuje się nowoczesne technologie, w tymsztuczną inteligencję, aby np. wykradać oszczędności zwykłych ludzi czy teżpozyskiwać wrażliwe dane osobowe. Stąd rodzi się istotne pytanie o potrzebę wprowadzeniaregulacji prawnych w tym zakresie. Poniższa mapaprzedstawia stosunek państw europejskich odnośnie wprowadzenia regulacji AI napoziomie krajowym.

Stan regulacji dotyczącychsztucznej inteligencji w Europie. Źródło

Mającna uwadze, że sami twórcy AI badają i wskazują ryzyko związane z jejwykorzystaniem, konieczność wprowadzenia regulacji prawnych jest raczej sprawąoczywistą. Zasadniczą kwestią pozostaje ich zakres.

Pierwszym na świecie dużym podmiotem, którywprowadził ustawodawstwo dotyczące sztucznej inteligencjibyła UniaEuropejska. Opublikowany 12 lipca 2024 roku tzw. AI Act, jest dokumentem,któregocelem jest ustanowienie jednolitych ram prawnych dla rozwoju, wdrażania iużytkowania systemów sztucznej inteligencji na terenie UE. Dyrektywa obejmujeszereg założeń, które mają na celu ochronę obywateli europejskiej wspólnoty. Popierwsze zapewnia o bezpiecznym i etycznym rozwijaniu systemów AI, zposzanowaniem praw obywateli, a także stawia wymóg transparentności algorytmówi oznaczania treści generowanych przez AI. Co więcej, wyznacza zasady dotyczącezarządzania całym cyklem życia systemów AI, od ich projektowania po ich użytkowaniei określa zasady wykorzystania AI przez sektor publiczny, w tym przez policję,proces wyborczy czy sądy. Warto podkreślić, że kompleksowe unijnerozporządzenie zawiera również AIAct Compliance Checker, czyli narzędzie przydatne dla małych iśrednich przedsiębiorstw, a także start’upów do sprawdzania zgodności ichsystemów AI z unijnym aktem.  Aktualnienarzędzie to jest w fazie przygotowania.

Z drugiej strony zaś, dokument przyjęty przezParlament Europejski w istotny sposób ogranicza Europę w zakresie postęputechnologicznego i pozbawia możliwości rozwijania nowoczesnych technologii wrównym lub zbliżonym stopniu jak inne ważne podmioty na arenie międzynarodowej,np. Chiny czy USA. Jako dowód można przywołać niedawną zapowiedź Meta, która nie planujewprowadzenia m.in. swojego multimodalnego modelu AI Llama 3.1 405B w UniiEuropejskiej z powodu obaw regulacyjnych. Wcześniej podobną decyzję podjęłafirma Apple wykluczając unijny rynek z wdrożenia Apple Intelligence.

Kolejnymprzykładem organu regulacyjnegodla AI jest Brazylia, która już w 2021 roku zatwierdziła ustawę o sztucznejinteligencji. Mimo, że od początku niezapewniała ona wystarczającego poziomu m.in. przejrzystości,to brazylijscy prawodawcy pracują nad jej ulepszaniem. W lipcu 2024 roku BrazylijskaKrajowa Agencja Ochrony Danych (ANPD) nakazałaMeta zaprzestanie wykorzystywania danych z Facebooka i Instagrama do trenowaniaswoich modeli AI. Decyzja ta została podjęta po raporcie Human Rights Watch, którywykazał, że w popularnym zbiorze danych używanym do trenowania modeli AIznalazły się zdjęcia brazylijskich dzieci, co stwarza ryzyko ich wykorzystaniaw deepfake’ach lub innych formach eksploatacji.W komentarzu do sprawy Meta stanowczo stwierdziła, żeich polityka „jest zgodna z brazylijskimi przepisami i regulacjamidotyczącymi prywatności”, a decyzja ANPD jest „krokiem wstecz dlainnowacji, konkurencji w rozwoju AI i dalszych opóźnień w dostarczaniu korzyściAI ludziom w Brazylii”.

Pod koniec sierpnia 2024 roku również Kaliforniaopublikowała projekt ustawy, którama regulować najpotężniejsze modele sztucznej inteligencji.Ustawa wymaga od twórców modeli AI, które korzystają z zasobówobliczeniowych o wartości ponad 100 milionów dolarów, przestrzegania iujawniania Planu Bezpieczeństwa w celu zapobiegania wyrządzaniu przez ichmodele „krytycznych szkód”. Jeśli ustawa zostanie przyjęta, może wzmocnićpozycję UE w regulowaniu AI, a także może zainspirować inne stany do tworzeniawłasnych regulacji dotyczących. Niektóre firmy, jak Anthropic, popierają ustawępo wprowadzeniu zmian, a Elon Musk sugeruje jej uchwalenie. Warto dodać, że ustawa ma też szerokie grono przeciwników zarówno ze strony przemysłu,jak i demokratów w Kongresie USA. Meta, OpenAI, Google iinne firmy także sprzeciwiają się wprowadzeniu tej regulacji, twierdząc, żezaszkodzi ona rozwojowi oprogramowania open source i innowacjom w AI. Projektustawy musi zostać przyjęty przez Zgromadzenie Ogólne do 31 sierpnia, a następniezatwierdzony przez Senat i podpisany przez gubernatora Kalifornii. Demokraci wKongresie i Izba Handlowa USA wzywają Newsoma do zawetowania ustawy.

To tylko kilka przykładów jak globalne podmiotypróbują ,,ubrać’’ sztuczną inteligencję w ramy regulacyjne. Mimo, że jesteśmy wpoczątkowej fazie tego procesu, można przypuszczać, że kształtowanie otoczeniaprawnego dla AI będzie skomplikowane, ponieważ musi uwzględniać tempo rozwoju tejtechnologii, a to jest naprawdę imponujące.

Coz tymi regulacjami?

Każda nowa technologia wiąże się zarówno zezbiorem szans, jak i zagrożeń. Sztuczna inteligencja jest bardzo użytecznymasystentem w wielu branżach, ale korzyści płynące z jej rozwoju muszą iść wparze z bezpieczeństwem. Identyfikacja ryzyka i otoczenie prawne jest tymprzypadku równie ważne. Wspomniany AI Act daje użytkownikom, czyli osobom, naktóre sztuczna inteligencja oddziałuje, możliwość obrony swoich praw, określonegwarancje bezpieczeństwa oraz ramy regulacyjne w zakresie jej wykorzystania. Jednakhamowanie lub organicznie rozwoju technologii AI w wyniku regulacji rynkowychjest faktem. Europa sama pozbawia się suwerenności technologicznej i zwiększadystans w stosunku do globalnych graczy. Dyrektywa nie stanowi jedynie ograniczeńdla lokalnych producentów i konsumentów, ale jest również istotnym wyzwaniemdla firm spoza UE, które nie będą mogły oferować swoich produktów i usług najednym z największych rynków gospodarczych na świecie.

Podsumowując,wraz z rozwojem nowych technologii, ustanowienie ram regulacyjnych jestniezbędne do prawidłowego funkcjonowania przedsiębiorstw i całych społeczeństw,jednak wymaga subtelnego podejścia, które będzie zapewniało komfortużytkownikom i jednocześnie nie będzie stanowiło bariery hamującej postęp społeczeństwi gospodarek. Ale czy można to pogodzić? Wypracowanie optymalnego rozwiązaniabędzie sporym wyzwaniem, zwłaszcza biorąc pod uwagę dynamikę rozwoju AI.  Istnieje bowiem zagrożenie, że podmioty, które,co do zasady, nie traktują priorytetowo np. ochrony danych osobowych, zdobędątaką przewagę w wyścigu technologicznym, która może okazać się niemożliwa doosiągniecia.

Patrycja Mizera

Zapisz się do naszego newslettera

Bądź na wyprzedzie dzięki naszym ekskluzywnym spostrzeżeniom! Dołącz do naszej społeczności myślicieli i wykonawców już dziś, i nigdy nie przegap wiedzy, która może ukształtować Twoje jutro.

Dziękujemy za dołączenie do naszego newslettera.
Ups! Coś poszło nie tak.