Sztuczna inteligencja i wielka polityka - w cieniu zagrożeń. Czy regulacje są potrzebne?
Żyjemy w czasach, w których technologia, media i polityka przeplatają się jak nigdy wcześniej. Platformy takie jak Facebook, Twitter czy Instagram stały się kluczowymi narzędziami komunikacji politycznej. Politycy mogą bezpośrednio komunikować się z wyborcami, a także mobilizować wsparcie i organizować za ich pośrednictwem kampanie. Na wykresie (Rys. 1) od Statista widać jak ogromny odsetek populacji poszczególnych krajów na świecie korzysta z mediów społecznościowych. W 2023 r. Chiny miały ponad miliard użytkowników mediów społecznościowych, co czyni je krajem o największej liczbie użytkowników. Przewiduje się, że do 2029 r. ta liczba przekroczy 1,2 miliarda. Jednak Indie mają przejąć prowadzenie, osiągając 1,3 miliarda użytkowników do 2029 r. Z kolei liczba użytkowników social mediów w Nigerii ma wzrosnąć z 47 milionów w 2023 r. do 114 milionów w 2029 r., co oznacza wzrost o 142%. ,,Cyfrowy elektorat’’ jest więc dla polityków przyszłością.
Jednak media społecznościowe mogą również być źródłem dezinformacji ifake newsów, co stanowi poważne wyzwanie dla współczesnej demokracji. Problem ten uwidacznia się np. w obrębie nadchodzących wyborów prezydenckich w Stanach Zjednoczonych, gdzie całkiem niedawno republikański kandydat Donald Trump fałszywie oskarżył swoja główną rywalkę, Kamalę Harris, o wykorzystywanie zdjęć stworzonych przez sztuczną inteligencję do zawyżania liczebności tłumów na jej wydarzeniach.
Pisząc o wpływie social mediówna współczesną politykę warto przytoczyć interesującą analizę case study, z publikacjiEuropean Parliamentary Research Service z 2019 roku, gdzie autorzy sprawdzili jak emocje i media społecznościowe mogą wpływać na opinię publiczną i wyniki wyborów w kontekście Brexitu. Referendum w sprawie członkostwa Wielkiej Brytanii w UE w 2016 roku było pierwszym "cyfrowym referendum". Obie strony kampanii – Leave i Remain - skupiły się na strategiach online, a media społecznościowe odegrały kluczową rolę w rozpowszechnianiu informacji. W tamtym czasie 41% brytyjskich użytkowników Internetu otrzymywało wiadomości przez media społecznościowe, głównie Facebook (29%) i Twitter (12%). Podczas kampanii opublikowano blisko 15 000 artykułów związanych z referendum. Media w swoim przekazie skupiły się na różnych kwestiach, takich jak gospodarka, imigracja i zdrowie, ale ton relacji byłczęsto stronniczy i emocjonalny. Kampania Leave była bardziej skutecznaw mediach społecznościowych, ponieważ miała bardziej emocjonalny przekaz. Tematy takie jak imigracja były często poruszane w negatywnym kontekście, a liczba relacji na temat imigracji wzrosła ponad trzykrotnie w ciągu 10-tygodniowej kampanii. Posty zwolenników Leave na Instagramie otrzymały o 26% więcej polubień i 20% więcej komentarzy niż posty Remain, a najbardziej aktywni użytkownicy również prowadzili kampanię na rzecz głosowania Leave. Na Facebooku, prawie połowa stron o największym zaangażowaniu była wyraźnie pro-Brexitowa, a posty na tych stronach wygenerowały ponad 11 milionów interakcji – trzy razy więcej niż strony pro-Remain. Zatem mechanizmy, za pomocą których platformy społecznościowe wzmacniają pewne komunikaty, mogą mieć rzeczywiste i czasami nieodwracalne konsekwencje.
Wróćmy jednak do nieuczciwych praktyk stosowanych w przestrzeni wirtualnej. Fake newsy to nieprawdziwe lub częściowo fałszywe informacje, które są umieszczane w Internecie po to, aby wprowadzić odbiorców w błąd. Taka metoda manipulacji często wykorzystywana jest do osiągania korzyści finansowych lub właśnie politycznych. Niestety, praktyka tajest bardzo toksyczna dla debaty publicznej i znacząco pogłębia polaryzacje społeczne. Innym ,,wynalazkiem’’ do fałszowania infosfery jest tzw. deep fake. To syntetyczne medium, gdzie obrazy, filmy lub dźwięk są manipulowane lub generowane za pomocą sztucznej inteligencji w taki sposób, aby uzyskać wysoce realistyczny efekt, ale - co do zasady - fałszywy. Deep fake wykorzystują techniki uczenia maszynowego, takie jak generatywne sieci przeciwstawne (Generative Adversarial Networks - GAN) w celu mapowania i replikowania mimiki twarzy, głosu i ruchów osoby. GAN (Rys. 2) to zaawansowana technologia głębokiego uczenia stosowana do tworzenia realistycznych, ale fałszywych obrazów i filmów. Do efektywnego działania, GAN potrzebuje dużej ilości danych treningowych.
Technologia ta może być, podobnie jak fake newsy, wykorzystywana do rozpowszechniania dezinformacji. W trzecim tygodniu sierpnia na platformie X (dawniej Tweeter) pojawiło się video autorstwa @thedorbrothers przestawiające znane iwpływowe twarze m.in. Joe Bidena, Donalda Trumpa, Kamali Harris czy Marka Zuckerberga, a nawet papieża Franciszka, które rzekomo, z bronią w ręku,napadają na sklepy. Poziom realizmu tej produkcji jest naprawdę imponujący, co pokazuje dzisiejsze możliwości technologii w tym zakresie. Biorąc pod uwagę, że narzędzia potrzebne do tworzenia takich materiałów są stale rozwijane i udoskonalane, można pokusić się o stwierdzenie, że w przyszłości – być może całkiem niedalekiej – fałszywe treści będą tak trudne do identyfikacji, że nastąpi przesilenie chaosu informacyjnego i posypią się fale pozwów sądowych lub inna forma rezonansu społecznego, bowiem oskarżenia w oparciu o fałszywe materiały dowodowe mogą dotyczyć każdego z Nas. W jaki sposób, nie mając podstawy prawnej, udowodnić, że to nie Ty dokonałeś_aś przestępstwa lub wykroczenia?
Paradoks polega na tym, że w walce z fałszywymi treściami na pomoc również przychodzi sztuczna inteligencja. Materiały deep fake, ze względu na masowy dostęp do obrazów i filmów, są coraz powszechniejsze w mediach społecznościowych, co rodzi potrzebę skutecznego ich wykrywania. W odpowiedzi na to zjawisko, organizacje takie jak DARPA, Facebook i Google, prowadzą szeroko zakrojone badania nad metodami wykrywania deep fake'ów, korzystając z różnych podejść głębokiego uczenia, takich jak LSTM czy RNN.
Konkretnym przykładem nowatorskiego narzędzia detekcyjnego jest DeepfakeDetectorod McAfee, wypuszczone w sierpniu 2024 roku. Jest to nowatorskie narzędzie do wykrywania deepfake’ów audio. Analizując dźwięk w filmach i strumieniach na platformach takich jak YouTube i X (dawniej Twitter), ostrzega użytkowników o potencjalnych deepfake’ach. Działa bezpośrednio na urządzeniach użytkowników, co zapewnia prywatność, ale nie obsługuje treści chronionych DRM (DigitalRights Management).
Twórcy dostrzegają ryzyko związane z AI – ostatnie doniesienia
W sierpniu 2024 roku, Massechusetts Institute of Technology opublikowało AIRisk Repository, czyli bazę danych zawierającą ponad 700 zagrożeń związanych ze sztuczną inteligencją. Baza ta została opracowana na podstawie 43 istniejących frameworków i klasyfikacji ryzyk. Repozytorium dzielisię na trzy główne części AI Risk Database, które zawiera szczegółowe opisy ryzyk, cytaty i numery stron z oryginalnych źródeł, Causal Taxonomy of AI Risks do klasyfikowania ryzyka według przyczyn, czasu i sposobu ich występowania orazDomain Taxonomy of AI Risks, które dzieli ryzyka na siedem głównych domen i 23 poddomeny, takie jak dezinformacja czy prywatność.Celem tego opracowania jest dostarczenie przeglądu krajobrazu zagrożeń związanych z AI,regularnie aktualizowanych źródeł informacji oraz wspólnej ramy odniesienia dla badaczy, deweloperów, firm, audytorów, decydentów i regulatorów.
W tym kontekście, warto wspomnieć, że niedawno OpenAI opublikowało swoje obawy dotyczące użytkowników, którzy zaczynają rozwijać emocjonalne przywiązanie do nowego modelu ChatGPT-4o. Dzięki zaawansowanym możliwościom, model ten generuje bardziej realistyczne odpowiedzi, co prowadzi do sytuacji, w których użytkownicy mogą przypisywać mu cechy ludzkie i tworzyć z nim więzi emocjonalne. Firma zauważyła, że niektórzy użytkownicy używają języka sugerującego tworzenie więzi z modelem, co może prowadzić do problemów zarówno dla jednostek, jak i społeczeństwa.
,,Podczas wczesnych testów, w tym red teamingu iwewnętrznych testów użytkowników, zaobserwowaliśmy, że użytkownicy używają języka, który może wskazywać na tworzenie połączeń z modelem. […]Socjalizacja podobna do ludzkiej z modelem AI może powodować efekty zewnętrzne wpływające na interakcje międzyludzkie. Na przykład użytkownicy mogą tworzyć relacje społeczne z AI, zmniejszając swoją potrzebę interakcji międzyludzkich — teoretycznie korzystne dla osób samotnych, ale potencjalnie wpływające na zdrowe relacje. Dłuższa interakcja z modelem może wpływać na normy społeczne’’.
OpenAI zatem ostrzega, że takie zachowanie może zmniejszyć potrzebę interakcji międzyludzkich i wpłynąć na zdrowe relacje. Dlatego też firma planuje dalsze badania nad potencjalnym wpływem emocjonalnego przywiązania do AI i sposobami jego ograniczenia.
Co ciekawe, w raporcie firmowym dotyczącym GPT-4o oceniono również, jak artykuły i chatboty generowane przez nowy flagowy model wpływają na opinie uczestników na tematy polityczne (Rys. 3). Okazało się, że AI nie była bardziej przekonująca niż ludzie, ale w trzech przypadkach na dwanaście AI okazała się bardziej perswazyjna. Badano, jak klipy audio i interaktywne rozmowy generowane przez GPT-4o wpływają na preferencje polityczne uczestników. AI nie była bardziej przekonująca niż ludzie. Klipy audio AI miały 78% skuteczności klipów audio ludzi, a rozmowy AI miały 65% skuteczności rozmów ludzi. Tydzień po badaniu sprawdzono, jak trwałe były zmiany opinii. Efekt rozmów AI wyniósł 0,8%, a klipów audio -0,72%.
Wielkość efektu interwencji tekstowej na hipotetyczne opinie na tematy polityczne. Źródło
Otoczenie regulacyjne w zakresie AI - potrzebneczy nie?
Prawo wyraźnie nie nadąża za technologią. W cyberprzestrzeni nierzadko sprawcy różnego rodzaju nadużyć pozostają nieuchwytni, co sprawia, że czują się ,,bezkarni’’. W działalności przestępczej z coraz większym skutkiem wykorzystuje się nowoczesne technologie, w tym sztuczną inteligencję, aby np. wykradać oszczędności zwykłych ludzi czy też pozyskiwać wrażliwe dane osobowe. Stąd rodzi się istotne pytanie o potrzebę wprowadzenia regulacji prawnych w tym zakresie. Poniższa mapa przedstawia stosunek państw europejskich odnośnie wprowadzenia regulacji AI na poziomie krajowym.
Stan regulacji dotyczących sztucznej inteligencji w Europie. Źródło
Mając na uwadze, że sami twórcy AI badają i wskazują ryzyko związane z jej wykorzystaniem, konieczność wprowadzenia regulacji prawnych jest raczej sprawą oczywistą. Zasadniczą kwestią pozostaje ich zakres.
Pierwszym na świecie dużym podmiotem, który wprowadził ustawodawstwo dotyczące sztucznej inteligencji była UniaEuropejska. Opublikowany 12 lipca 2024 roku tzw. AI Act, jest dokumentem, którego celem jest ustanowienie jednolitych ram prawnych dla rozwoju, wdrażania i użytkowania systemów sztucznej inteligencji na terenie UE. Dyrektywa obejmuje szereg założeń, które mają na celu ochronę obywateli europejskiej wspólnoty. Po pierwsze zapewnia o bezpiecznym i etycznym rozwijaniu systemów AI, z poszanowaniem praw obywateli, a także stawia wymóg transparentności algorytmów i oznaczania treści generowanych przez AI. Co więcej, wyznacza zasady dotyczące zarządzania całym cyklem życia systemów AI, od ich projektowania po ich użytkowanie i określa zasady wykorzystania AI przez sektor publiczny, w tym przez policję, proces wyborczy czy sądy. Warto podkreślić, że kompleksowe unijne rozporządzenie zawiera również AI Act Compliance Checker, czyli narzędzie przydatne dla małych i średnich przedsiębiorstw, a także start’upów do sprawdzania zgodności ich systemów AI z unijnym aktem. Aktualnie narzędzie to jest w fazie przygotowania.
Z drugiej strony zaś, dokument przyjęty przez Parlament Europejski w istotny sposób ogranicza Europę w zakresie postępu technologicznego i pozbawia możliwości rozwijania nowoczesnych technologii w równym lub zbliżonym stopniu jak inne ważne podmioty na arenie międzynarodowej, np. Chiny czy USA. Jako dowód można przywołać niedawną zapowiedź Meta, która nie planujewprowadzenia m.in. swojego multimodalnego modelu AI Llama 3.1 405B w Unii Europejskiej z powodu obaw regulacyjnych. Wcześniej podobną decyzję podjęła firma Apple wykluczając unijny rynek z wdrożenia Apple Intelligence.
Kolejnym przykładem organu regulacyjnego dla AI jest Brazylia, która już w 2021 roku zatwierdziła ustawę o sztucznej inteligencji. Mimo, że od początku nie zapewniała ona wystarczającego poziomu m.in. przejrzystości, to brazylijscy prawodawcy pracują nad jej ulepszaniem. W lipcu 2024 roku Brazylijska Krajowa Agencja Ochrony Danych (ANPD) nakazała Meta zaprzestanie wykorzystywania danych z Facebooka i Instagrama do trenowania swoich modeli AI. Decyzja ta została podjęta po raporcie Human Rights Watch, który wykazał, że w popularnym zbiorze danych używanym do trenowania modeli AI znalazły się zdjęcia brazylijskich dzieci, co stwarza ryzyko ich wykorzystania w deepfake’ach lub innych formach eksploatacji. W komentarzu do sprawy Meta stanowczo stwierdziła, że ich polityka „jest zgodna z brazylijskimi przepisami i regulacjami dotyczącymi prywatności”, a decyzja ANPD jest „krokiem wstecz dla innowacji, konkurencji w rozwoju AI i dalszych opóźnień w dostarczaniu korzyści AI ludziom w Brazylii”.
Pod koniec sierpnia 2024 roku również Kalifornia opublikowała projekt ustawy, która ma regulować najpotężniejsze modele sztucznej inteligencji. Ustawa wymaga od twórców modeli AI, które korzystają z zasobów obliczeniowych o wartości ponad 100 milionów dolarów, przestrzegania i ujawniania Planu Bezpieczeństwa w celu zapobiegania wyrządzaniu przez ich modele „krytycznych szkód”. Jeśli ustawa zostanie przyjęta, może wzmocnić pozycję UE w regulowaniu AI, a także może zainspirować inne stany do tworzenia własnych regulacji dotyczących. Niektóre firmy, jak Anthropic, popierają ustawępo wprowadzeniu zmian, a Elon Musk sugeruje jej uchwalenie. Warto dodać, że ustawa ma też szerokie grono przeciwników zarówno ze strony przemysłu, jak i demokratów w Kongresie USA. Meta, OpenAI, Google i inne firmy także sprzeciwiają się wprowadzeniu tej regulacji, twierdząc, że zaszkodzi ona rozwojowi oprogramowania open source i innowacjom w AI. Projekt ustawy musi zostać przyjęty przez Zgromadzenie Ogólne do 31 sierpnia, a następnie zatwierdzony przez Senat i podpisany przez gubernatora Kalifornii. Demokraci w Kongresie i Izba Handlowa USA wzywają Newsoma do zawetowania ustawy.
To tylko kilka przykładów jak globalne podmioty próbują ,,ubrać’’ sztuczną inteligencję w ramy regulacyjne. Mimo, że jesteśmy w początkowej fazie tego procesu, można przypuszczać, że kształtowanie otoczenia prawnego dla AI będzie skomplikowane, ponieważ musi uwzględniać tempo rozwoju tej technologii, a to jest naprawdę imponujące.
Co z tymi regulacjami?
Każda nowa technologia wiąże się zarówno ze zbiorem szans, jak i zagrożeń. Sztuczna inteligencja jest bardzo użytecznym asystentem w wielu branżach, ale korzyści płynące z jej rozwoju muszą iść w parze z bezpieczeństwem. Identyfikacja ryzyka i otoczenie prawne jest tym przypadku równie ważne. Wspomniany AI Act daje użytkownikom, czyli osobom, na które sztuczna inteligencja oddziałuje, możliwość obrony swoich praw, określone gwarancje bezpieczeństwa oraz ramy regulacyjne w zakresie jej wykorzystania. Jednak hamowanie lub organicznie rozwoju technologii AI w wyniku regulacji rynkowych jest faktem. Europa sama pozbawia się suwerenności technologicznej i zwiększa dystans w stosunku do globalnych graczy. Dyrektywa nie stanowi jedynie ograniczeń dla lokalnych producentów i konsumentów, ale jest również istotnym wyzwaniem dla firm spoza UE, które nie będą mogły oferować swoich produktów i usług na jednym z największych rynków gospodarczych na świecie.
Podsumowując, wraz z rozwojem nowych technologii, ustanowienie ram regulacyjnych jest niezbędne do prawidłowego funkcjonowania przedsiębiorstw i całych społeczeństw, jednak wymaga subtelnego podejścia, które będzie zapewniało komfort użytkownikom i jednocześnie nie będzie stanowiło bariery hamującej postęp społeczeństwi gospodarek. Ale czy można to pogodzić? Wypracowanie optymalnego rozwiązania będzie sporym wyzwaniem, zwłaszcza biorąc pod uwagę dynamikę rozwoju AI. Istnieje bowiem zagrożenie, że podmioty, które,co do zasady, nie traktują priorytetowo np. ochrony danych osobowych, zdobędą taką przewagę w wyścigu technologicznym, która może okazać się niemożliwa do osiągniecia.
Sztuczna inteligencja i wielka polityka - w cieniu zagrożeń. Czy regulacje są potrzebne?
Żyjemy w czasach, w których technologia, media i polityka przeplatają się jak nigdy wcześniej. Platformy takie jak Facebook, Twitter czy Instagram stały się kluczowymi narzędziami komunikacji politycznej. Politycy mogą bezpośrednio komunikować się z wyborcami, a także mobilizować wsparcie i organizować za ich pośrednictwem kampanie. Na wykresie (Rys. 1) od Statista widać jak ogromny odsetek populacji poszczególnych krajów na świecie korzysta z mediów społecznościowych. W 2023 r. Chiny miały ponad miliard użytkowników mediów społecznościowych, co czyni je krajem o największej liczbie użytkowników. Przewiduje się, że do 2029 r. ta liczba przekroczy 1,2miliarda. Jednak Indie mają przejąć prowadzenie, osiągając 1,3 miliarda użytkowników do 2029 r. Z kolei liczba użytkowników social mediów w Nigerii ma wzrosnąć z 47 milionów w 2023 r. do 114 milionów w 2029 r., co oznacza wzrost o 142%. ,,Cyfrowy elektorat’’ jest więc dla polityków przyszłością.
Liczba użytkowników mediówspołecznościowych w wybranych krajach w 2023 i 2029 r. (w mln). Źródło
Jednak media społecznościowe mogą również być źródłem dezinformacji i fake newsów, co stanowi poważne wyzwanie dla współczesnej demokracji. Problem ten uwidacznia się np. w obrębie nadchodzących wyborów prezydenckich w Stanach Zjednoczonych, gdzie całkiem niedawno republikański kandydat Donald Trump fałszywie oskarżył swoja główną rywalkę, Kamalę Harris, o wykorzystywanie zdjęć stworzonych przez sztuczną inteligencję do zawyżania liczebności tłumów na jej wydarzeniach.
Pisząc o wpływie social mediów na współczesną politykę warto przytoczyć interesującą analizę case study, z publikacjiEuropean Parliamentary Research Service z 2019 roku, gdzie autorzy sprawdzili jak emocje i media społecznościowe mogą wpływać na opinię publiczną i wyniki wyborów w kontekście Brexitu. Referendum w sprawie członkostwa Wielkiej Brytanii w UE w 2016 roku było pierwszym "cyfrowym referendum". Obie strony kampanii – Leave i Remain - skupiły się na strategiach online, a media społecznościowe odegrały kluczową rolę w rozpowszechnianiu informacji. W tamtym czasie 41% brytyjskich użytkowników Internetu otrzymywało wiadomości przez media społecznościowe, głównie Facebook (29%) i Twitter (12%). Podczas kampanii opublikowano blisko 15 000 artykułów związanych z referendum. Media w swoim przekazie skupiły się na różnych kwestiach, takich jak gospodarka, imigracja i zdrowie, ale ton relacji był często stronniczy i emocjonalny. Kampania Leave była bardziej skuteczna w mediach społecznościowych, ponieważ miała bardziej emocjonalny przekaz. Tematy takie jak imigracja były często poruszane w negatywnym kontekście, a liczba relacji na temat imigracji wzrosła ponad trzykrotnie w ciągu 10-tygodniowej kampanii. Posty zwolenników Leave na Instagramie otrzymały o 26% więcej polubień i 20% więcej komentarzy niż posty Remain, a najbardziej aktywni użytkownicy również prowadzili kampanię na rzecz głosowania Leave. Na Facebooku, prawie połowa stron o największym zaangażowaniu była wyraźnie pro-Brexitowa, a posty na tych stronach wygenerowały ponad 11 milionów interakcji – trzy razy więcej niż strony pro-Remain. Zatem mechanizmy, za pomocą których platformy społecznościowe wzmacniają pewne komunikaty, mogą mieć rzeczywiste i czasami nieodwracalne konsekwencje.
Wróćmy jednak do nieuczciwych praktyk stosowanych w przestrzeni wirtualnej. Fake newsy to nieprawdziwe lub częściowo fałszy we informacje, które są umieszczane w Internecie po to, aby wprowadzić odbiorców w błąd. Taka metoda manipulacji często wykorzystywana jest do osiągania korzyści finansowych lub właśnie politycznych. Niestety, praktyka ta jest bardzo toksyczna dla debaty publicznej i znacząco pogłębia polaryzacje społeczne. Innym ,,wynalazkiem’’ do fałszowania infosfery jest tzw. deep fake. To syntetyczne medium, gdzie obrazy, filmy lub dźwięk są manipulowane lub generowane za pomocą sztucznej inteligencji w taki sposób, aby uzyskać wysoce realistyczny efekt, ale - co do zasady - fałszywy. Deep fake wykorzystują techniki uczenia maszynowego, takie jak generatywne sieci przeciwstawne (Generative Adversarial Networks - GAN) w celu mapowania i replikowania mimiki twarzy, głosu i ruchów osoby. GAN (Rys. 2) to zaawansowana technologia głębokiego uczenia stosowana do tworzenia realistycznych, ale fałszywych obrazów i filmów. Do efektywnego działania, GAN potrzebuje dużej ilości danych treningowych.
Technologia ta może być, podobnie jak fake newsy, wykorzystywana do rozpowszechniania dezinformacji. W trzecim tygodniu sierpnia na platformie X (dawniej Tweeter) pojawiło się video autorstwa @thedorbrothers przestawiające znane i wpływowe twarze m.in. Joe Bidena, Donalda Trumpa, Kamali Harris czy Marka Zuckerberga, a nawet papieża Franciszka, które rzekomo, z bronią w ręku, napadają na sklepy. Poziom realizmu tej produkcji jest naprawdę imponujący, co pokazuje dzisiejsze możliwości technologii w tym zakresie. Biorąc pod uwagę, że narzędzia potrzebne do tworzenia takich materiałów są stale rozwijane i udoskonalane, można pokusić się o stwierdzenie, że w przyszłości – być może całkiem niedalekiej – fałszywe treści będą tak trudne do identyfikacji, że nastąpi przesilenie chaosu informacyjnego i posypią się fale pozwów sądowych lub inna forma rezonansu społecznego, bowiem oskarżenia w oparciu o fałszywe materiały dowodowe mogą dotyczyć każdego z Nas. W jaki sposób, nie mając podstawy prawnej, udowodnić, że to nie Ty dokonałeś_aś przestępstwa lub wykroczenia?
Paradoks polega na tym, że w walce z fałszywymi treściami na pomoc również przychodzi sztuczna inteligencja. Materiały deep fake, ze względu na masowy dostęp do obrazów i filmów, są coraz powszechniejsze w mediach społecznościowych, co rodzi potrzebę skutecznego ich wykrywania. W odpowiedzina to zjawisko, organizacje takie jak DARPA, Facebook i Google, prowadzą szeroko zakrojone badania nad metodami wykrywania deep fake'ów, korzystając z różnych podejść głębokiego uczenia, takich jak LSTM czy RNN.
Konkretnym przykładem nowatorskiego narzędzia detekcyjnego jest DeepfakeDetector od McAfee,wypuszczone w sierpniu 2024 roku. Jest to nowatorskie narzędzie do wykrywania deepfake’ów audio. Analizując dźwięk w filmach i strumieniach naplatformach takich jak YouTube i X (dawniej Twitter), ostrzega użytkowników o potencjalnych deepfake’ach. Działa bezpośrednio na urządzeniach użytkowników, co zapewnia prywatność, ale nie obsługuje treści chronionych DRM (DigitalRights Management).
Twórcy dostrzegają ryzyko związane z AI – ostatnie doniesienia
W sierpniu 2024 roku, Massechusetts Institute of Technology opublikowało AI Risk Repository, czyli bazę danych zawierającą ponad 700 zagrożeń związanych ze sztuczną inteligencją. Baza ta została opracowana na podstawie 43 istniejących frameworków i klasyfikacji ryzyk. Repozytorium dzielisię na trzy główne części AI Risk Database, które zawiera szczegółowe opisy ryzyk, cytaty i numery stron z oryginalnych źródeł, Causal Taxonomy of AI Risks do klasyfikowania ryzyka według przyczyn, czasu i sposobu ich występowania orazDomain Taxonomy of AI Risks, które dzieli ryzyka na siedem głównych domen i 23 poddomeny, takie jak dezinformacja czy prywatność.Celem tego opracowania jest dostarczenie przeglądu krajobrazu zagrożeń związanych z AI, regularnie aktualizowanych źródeł informacji oraz wspólnej ramy odniesienia dla badaczy, deweloperów, firm, audytorów, decydentów i regulatorów.
W tym kontekście, warto wspomnieć, że niedawno OpenAI opublikowało swoje obawy dotyczące użytkowników, którzy zaczynają rozwijać emocjonalne przywiązanie do nowego modelu ChatGPT-4o. Dzięki zaawansowanym możliwościom, model ten generuje bardziej realistyczne odpowiedzi, co prowadzi do sytuacji, w których użytkownicy mogą przypisywać mu cechy ludzkie i tworzyć z nim więzi emocjonalne. Firma zauważyła, że niektórzy użytkownicy używają języka sugerującego tworzenie więzi z modelem, co może prowadzić do problemów zarówno dla jednostek, jak i społeczeństwa.
,,Podczas wczesnych testów, w tym red teamingu iwewnętrznych testów użytkowników, zaobserwowaliśmy, że użytkownicy używają języka, który może wskazywać na tworzenie połączeń z modelem. […]Socjalizacja podobna do ludzkiej z modelem AI może powodować efekty zewnętrzne wpływające na interakcje międzyludzkie. Na przykład użytkownicy mogą tworzyć relacje społeczne z AI, zmniejszając swoją potrzebę interakcji międzyludzkich — teoretycznie korzystne dla osób samotnych, ale potencjalnie wpływające na zdrowe relacje. Dłuższa interakcja z modelem może wpływać na normy społeczne’’.
OpenAI zatem ostrzega, że takie zachowanie może zmniejszyć potrzebę interakcji międzyludzkich i wpłynąć na zdrowe relacje. Dlatego też firma planuje dalsze badania nad potencjalnym wpływem emocjonalnego przywiązania do AI i sposobami jego ograniczenia.
Co ciekawe, w raporcie firmowym dotyczącym GPT-4o oceniono również, jak artykuły i chatboty generowane przez nowy flagowy model wpływają na opinie uczestników na tematy polityczne (Rys. 3). Okazało się, że AI nie była bardziej przekonująca niż ludzie, ale w trzech przypadkach na dwanaście AI okazała się bardziej perswazyjna. Badano, jak klipy audio i interaktywne rozmowy generowane przez GPT-4o wpływają na preferencje polityczne uczestników. AI nie była bardziej przekonująca niż ludzie. Klipy audio AI miały 78% skuteczności klipów audio ludzi, a rozmowy AI miały 65% skuteczności rozmów ludzi. Tydzień po badaniu sprawdzono, jak trwałe były zmiany opinii. Efekt rozmów AI wyniósł 0,8%, a klipów audio -0,72%.
Wielkość efektu interwencjitekstowej na hipotetyczne opinie na tematy polityczne. Źródło
Otoczenie regulacyjne w zakresie AI - potrzebne czy nie?
Prawo wyraźnie nie nadąża za technologią. W cyberprzestrzeni nierzadko sprawcy różnego rodzaju nadużyć pozostają nieuchwytni, co sprawia, że czują się ,,bezkarni’’. W działalności przestępczej z coraz większym skutkiem wykorzystuje się nowoczesne technologie, w tym sztuczną inteligencję, aby np. wykradać oszczędności zwykłych ludzi czy też pozyskiwać wrażliwe dane osobowe. Stąd rodzi się istotne pytanie o potrzebę wprowadzenia regulacji prawnych w tym zakresie. Poniższa mapa przedstawia stosunek państw europejskich odnośnie wprowadzenia regulacji AI na poziomie krajowym.
Stan regulacji dotyczącychsztucznej inteligencji w Europie. Źródło
Mając na uwadze, że sami twórcy AI badają i wskazują ryzyko związane z jej wykorzystaniem, konieczność wprowadzenia regulacji prawnych jest raczej sprawą oczywistą. Zasadniczą kwestią pozostaje ich zakres.
Pierwszym na świecie dużym podmiotem, który wprowadził ustawodawstwo dotyczące sztucznej inteligencji była Unia Europejska. Opublikowany 12 lipca 2024 roku tzw. AI Act, jest dokumentem, którego celem jest ustanowienie jednolitych ram prawnych dla rozwoju, wdrażania i użytkowania systemów sztucznej inteligencji na terenie UE. Dyrektywa obejmuje szereg założeń, które mają na celu ochronę obywateli europejskiej wspólnoty. Po pierwsze zapewnia o bezpiecznym i etycznym rozwijaniu systemów AI, z poszanowaniem praw obywateli, a także stawia wymóg transparentności algorytmów i oznaczania treści generowanych przez AI. Co więcej, wyznacza zasady dotyczące zarządzania całym cyklem życia systemów AI, od ich projektowania po ich użytkowaniei określa zasady wykorzystania AI przez sektor publiczny, w tym przez policję, proces wyborczy czy sądy. Warto podkreślić, że kompleksowe unijne rozporządzenie zawiera również AI Act Compliance Checker, czyli narzędzie przydatne dla małych i średnich przedsiębiorstw, a także start’upów do sprawdzania zgodności ich systemów AI z unijnym aktem. Aktualnie narzędzie to jest w fazie przygotowania.
Z drugiej strony zaś, dokument przyjęty przez Parlament Europejski w istotny sposób ogranicza Europę w zakresie postępu technologicznego i pozbawia możliwości rozwijania nowoczesnych technologii w równym lub zbliżonym stopniu jak inne ważne podmioty na arenie międzynarodowej, np. Chiny czy USA. Jako dowód można przywołać niedawną zapowiedź Meta, która nie planuje wprowadzenia m.in. swojego multimodalnego modelu AI Llama 3.1 405B w Unii Europejskiej z powodu obaw regulacyjnych. Wcześniej podobną decyzję podjęła firma Apple wykluczając unijny rynek z wdrożenia Apple Intelligence.
Kolejnym przykładem organu regulacyjnego dla AI jest Brazylia, która już w 2021 roku zatwierdziła ustawę o sztucznej inteligencji. Mimo, że od początku nie zapewniała ona wystarczającego poziomu m.in. przejrzystości, to brazylijscy prawodawcy pracują nad jej ulepszaniem. W lipcu 2024 roku Brazylijska Krajowa Agencja Ochrony Danych (ANPD) nakazała Meta zaprzestanie wykorzystywania danych z Facebooka i Instagrama do trenowania swoich modeli AI. Decyzja ta została podjęta po raporcie Human Rights Watch, który wykazał, że w popularnym zbiorze danych używanym do trenowania modeli AI znalazły się zdjęcia brazylijskich dzieci, co stwarza ryzyko ich wykorzystaniaw deepfake’ach lub innych formach eksploatacji.W komentarzu do sprawy Meta stanowczo stwierdziła, że ich polityka „jest zgodna z brazylijskimi przepisami i regulacjami dotyczącymi prywatności”, a decyzja ANPD jest „krokiem wstecz dla innowacji, konkurencji w rozwoju AI i dalszych opóźnień w dostarczaniu korzyści AI ludziom w Brazylii”.
Pod koniec sierpnia 2024 roku również Kalifornia opublikowała projekt ustawy, która ma regulować najpotężniejsze modele sztucznej inteligencji. Ustawa wymaga od twórców modeli AI, które korzystają z zasobów obliczeniowych o wartości ponad 100 milionów dolarów, przestrzegania i ujawniania Planu Bezpieczeństwa w celu zapobiegania wyrządzaniu przez ich modele „krytycznych szkód”. Jeśli ustawa zostanie przyjęta, może wzmocnić pozycję UE w regulowaniu AI, a także może zainspirować inne stany do tworzenia własnych regulacji dotyczących. Niektóre firmy, jak Anthropic, popierają ustawę po wprowadzeniu zmian, a Elon Musk sugeruje jej uchwalenie. Warto dodać, że ustawa ma też szerokie grono przeciwników zarówno ze strony przemysłu, jak i demokratów w Kongresie USA. Meta, OpenAI, Google i inne firmy także sprzeciwiają się wprowadzeniu tej regulacji, twierdząc, że zaszkodzi ona rozwojowi oprogramowania open source i innowacjom w AI. Projekt ustawy musi zostać przyjęty przez Zgromadzenie Ogólne do 31 sierpnia, a następnie zatwierdzony przez Senat i podpisany przez gubernatora Kalifornii. Demokraci w Kongresie i Izba Handlowa USA wzywają Newsoma do zawetowania ustawy.
To tylko kilka przykładów jak globalne podmioty próbują ,,ubrać’’ sztuczną inteligencję w ramy regulacyjne. Mimo, że jesteśmy w początkowej fazie tego procesu, można przypuszczać, że kształtowanie otoczenia prawnego dla AI będzie skomplikowane, ponieważ musi uwzględniać tempo rozwoju tej technologii, a to jest naprawdę imponujące.
Co z tymi regulacjami?
Każda nowa technologia wiąże się zarówno ze zbiorem szans, jak i zagrożeń. Sztuczna inteligencja jest bardzo użytecznym asystentem w wielu branżach, ale korzyści płynące z jej rozwoju muszą iść w parze z bezpieczeństwem. Identyfikacja ryzyka i otoczenie prawne jest tymprzypadku równie ważne. Wspomniany AI Act daje użytkownikom, czyli osobom, na które sztuczna inteligencja oddziałuje, możliwość obrony swoich praw, określone gwarancje bezpieczeństwa oraz ramy regulacyjne w zakresie jej wykorzystania. Jednak hamowanie lub organicznie rozwoju technologii AI w wyniku regulacji rynkowych jest faktem. Europa sama pozbawia się suwerenności technologicznej i zwiększa dystans w stosunku do globalnych graczy. Dyrektywa nie stanowi jedynie ograniczeńdla lokalnych producentów i konsumentów, ale jest również istotnym wyzwaniemdla firm spoza UE, które nie będą mogły oferować swoich produktów i usług najednym z największych rynków gospodarczych na świecie.
Podsumowując, wraz z rozwojem nowych technologii, ustanowienie ram regulacyjnych jest niezbędne do prawidłowego funkcjonowania przedsiębiorstw i całych społeczeństw, jednak wymaga subtelnego podejścia, które będzie zapewniało komfortużytkownikom i jednocześnie nie będzie stanowiło bariery hamującej postęp społeczeństwi gospodarek. Ale czy można to pogodzić? Wypracowanie optymalnego rozwiązania będzie sporym wyzwaniem, zwłaszcza biorąc pod uwagę dynamikę rozwoju AI. Istnieje bowiem zagrożenie, że podmioty, które, co do zasady, nie traktują priorytetowo np. ochrony danych osobowych, zdobędątaką przewagę w wyścigu technologicznym, która może okazać się niemożliwa do osiągniecia.
Bądź na wyprzedzie dzięki naszym ekskluzywnym spostrzeżeniom! Dołącz do naszej społeczności myślicieli i wykonawców już dziś, i nigdy nie przegap wiedzy, która może ukształtować Twoje jutro.