Taylor Swift popiera Trumpa – Czyli czym jest deepfake?
Czy słyszeliście na TikToku Andrzeja Dudę śpiewającego „Chyba, że z tobą” albo parodię „1 z 10” z udziałem polskich polityków? A może trafiliście na Joe Bidena śpiewającego „Baby Shark” lub Snoop Dogga czytającego tarota? Choć te filmy mogą wydawać się jedynie zabawnymi klipami, w rzeczywistości ukazują niebezpieczeństwa związane z technologią deepfake. W ostatnich latach takie manipulacje wywołują coraz większe zaniepokojenie, zwłaszcza w kontekście osób publicznych i celebrytów. Przykładem tego jest sprawa Taylor Swift, której wizerunek został wykorzystany bez autoryzacji w celach politycznych.
Co to jest deepfake?
Technologia deepfake wykorzystuje sztuczną inteligencję do tworzenia filmów, w których fałszywe obrazy są niemal niemożliwe do odróżnienia od rzeczywistości. Dzięki zaawansowanym algorytmom, wykorzystanie technologii deepfake’ów pozwala na imitowanie wyglądu i głosu osoby tak precyzyjnie, że stają się trudne do odróżnienia od rzeczywistości. Choć na pierwszy rzut oka może wydawać się to zabawną formą rozrywki, tak jak wspomniane nagrania wideo, potencjalne zagrożenia związane z tą technologią są ogromne. W nieodpowiednich rękach deepfake może być użyty do fałszowania wypowiedzi, manipulacji wizerunkiem lub nawet do fałszywych informacji, co ma szczególne znaczenie w kontekście polityki i mediów.
Głębokie uczenie pozwala na generowanie nagrania wideo i nagrania audio, które mogą zawierać fałszywe informacje. Twórcy deepfake’ów często wykorzystują tę technologię do zmanipulowanych treści, w tym fałszywego wideo przedstawiającego znane osoby. Jednym z zagrożeń związanych z wykorzystaniem deepfake jest wyłudzanie pieniędzy poprzez podszywanie się pod prawdziwe osoby. Rozwój technologii oraz postęp w uczeniu maszynowym sprawiają, że rozpoznać deepfake staje się coraz trudniejsze. Z tego powodu prowadzone są kampanie edukacyjne, które mają na celu zwrócenie uwagi na zagrożenia związane z rozpowszechnianiem fałszywych informacji.
Choć deepfake jest wykorzystywany do efektów wizualnych w filmach, to jednocześnie stanowi niebezpieczne narzędzie, które może służyć do szerzenia nieprawdziwych informacji. W szczególności dotyczy to fałszywych obrazów używanych w filmach pornograficznych, co budzi poważne wątpliwości etyczne. Mimo zaawansowania technologii, nadal można zauważyć pewne niedoskonałości w procesie produkcji deepfake, które mogą pomóc w ich identyfikacji.
Taylor Swift a fałszywe poparcie polityczne
Sprawa Taylor Swift pokazuje, jak szybko deepfake może przerodzić się z technologii rozrywkowej w narzędzie manipulacji. W sierpniu w mediach pojawiło się wygenerowane za pomocą AI wideo, w którym artystka rzekomo wyraża poparcie dla byłego prezydenta USA, Donalda Trumpa. Problem polega na tym, że piosenkarka nigdy nie wyraziła takiego stanowiska – wręcz przeciwnie, wielokrotnie wypowiadała się na temat swoich politycznych przekonań, które często stoją w sprzeczności z polityką Trumpa. Fałszywe nagranie mogło więc wprowadzić w błąd jej fanów oraz opinię publiczną, a także stać się narzędziem do szerzenia dezinformacji.
Dodatkowo na przestrzeni ostatnich dni Taylor Swift zabrała głos w mediach społecznościowych, aby wyrazić swoje poparcie dla kampanii Harris. Wokalistka wyraziła swój podziw dla startującej w wyborach, nazywając ją „stabilnym, utalentowanym liderem” i „wojowniczką” na rzecz praw osób LGBTQ+ i swobód reprodukcyjnych kobiet. Zwróciła się również do Trumpa, który rozpowszechniając fałszywe treści AI, sugeruje, że gwiazda go wspiera.
„To naprawdę przywołało moje obawy związane ze sztuczną inteligencją i niebezpieczeństwami związanymi z rozpowszechnianiem dezinformacji.” „Doprowadziło mnie to do wniosku, że jako wyborca muszę być bardzo przejrzysta, jeśli chodzi o moje rzeczywiste plany wyborcze. Najprostszym sposobem zwalczania dezinformacji jest prawda.” – Taylor Swift na temat deep fake’ów.
Chociaż Swift mogłaby rozważać kroki prawne, takie jak pozew o naruszenie praw do wizerunku, obecne przepisy prawne nie zawsze są wystarczająco jasne w przypadku deepfake’ów. Technologia ta rozwija się tak szybko, że prawo nie zawsze nadąża za jej postępem, co oznacza, że osoby publiczne mogą mieć trudności z ochroną swojego wizerunku przed tego typu manipulacjami.
Jednym z najważniejszych problemów związanych z deepfake’ami jest brak jednoznacznych przepisów prawnych, które regulowałyby ich tworzenie i rozpowszechnianie. W przypadku Taylor Swift, która jest postacią publiczną i jedną z najbardziej rozpoznawalnych gwiazd na świecie, walka z nieautoryzowanymi deepfake’ami może być skomplikowana. Gwiazdy, podobnie jak politycy, są bardziej narażone na fałszywe treści ze względu na swoją powszechną obecność w mediach.
NO FAKES Act – odpowiedź na zagrożenie
W odpowiedzi na rosnące zagrożenie związane z deepfake’ami we wrześniu w USA powstał projekt ustawy NO FAKES Act (H.R. 9551). Jego celem jest ochrona wizerunku artystów i innych osób publicznych przed nieautoryzowanym wykorzystaniem w deepfake’ach. Ustawa ta ma umożliwić pociągnięcie do odpowiedzialności twórców takich treści, które mogą wprowadzać w błąd, manipulować opinią publiczną i naruszać prywatność jednostek.
Cele i założenia NO FAKES Act:
Ochrona wizerunku
Ochrona wizerunku – w sekcji 2 (a) ustawy, projekt wyraźnie określa, że zabrania się tworzenia lub rozpowszechniania generowanych przez AI replik wizerunku lub głosu osoby bez jej zgody. Dotyczy to zarówno artystów, polityków, jak i innych publicznych postaci, które mogą być narażone na nieautoryzowane wykorzystanie ich wizerunku do celów komercyjnych lub manipulacyjnych.
Możliwość dochodzenia roszczeń
Możliwość dochodzenia roszczeń – w sekcji 2 (b) ustawy, projekt przewiduje możliwość dochodzenia roszczeń przez osoby, których prawa zostały naruszone w wyniku wykorzystania ich wizerunku lub głosu bez zgody w materiałach generowanych przez sztuczną inteligencję. Poszkodowani mogą żądać nie tylko zaniechania dalszego rozpowszechniania treści, ale również odszkodowania za szkody moralne i materialne. Projekt przewiduje odszkodowania za straty finansowe wynikające z utraty kontraktów zawodowych, utraty reputacji oraz z powodu dezinformacji, która może wpłynąć na życie prywatne lub karierę zawodową poszkodowanego. Możliwa jest również opcja zbiorowych pozwów, gdy deepfake dotyczy większej grupy osób, np. członków jakiegoś zespołu muzycznego lub grupy politycznej, których wizerunki i głosy zostały wykorzystane bez zgody. Warto zaznaczyć, że odpowiedzialność nie ogranicza się jedynie do twórcy deepfake’a. Platformy, które nie usuwają fałszywych treści pomimo zgłoszeń, również mogą być pociągnięte do odpowiedzialności. To znaczy, że serwisy takie jak YouTube, Twitter czy Facebook mogą ponosić konsekwencje za nieefektywne reagowanie na zgłoszenia o treściach będących deepfake’ami. Dodatkowo, ustawa przewiduje wprowadzenie środków tymczasowych, takich jak nakazy sądowe (injunctions), które mogą nakazać usunięcie materiałów deepfake z sieci lub zablokowanie ich dalszego rozpowszechniania przed ostatecznym rozstrzygnięciem sądu. Daje to poszkodowanym możliwość szybkiego reagowania i minimalizowania szkód.
Odpowiedzialność prawna za dezinformację
Odpowiedzialność prawna za dezinformację – w sekcji 2 (c) ustawy, projekt przewiduje możliwość pociągnięcia do odpowiedzialności prawnej osób, które świadomie i celowo tworzą oraz rozpowszechniają fałszywe treści deepfake z zamiarem wprowadzenia odbiorców w błąd. Jest to szczególnie istotne w kontekście manipulacji wyborczej, gdzie fałszywe nagrania mogą wpływać na wynik wyborów, zanim zostaną zweryfikowane.
Cały tekst projektu ustawy możesz znaleźć tutaj: https://www.congress.gov/bill/118th-congress/house-bill/9551/text.
NO FAKES Act zyskał poparcie wśród artystów, w tym Taylor Swift, oraz polityków, którzy obawiają się, że technologia deepfake może być wykorzystana do manipulacji opinią publiczną, zwłaszcza podczas kampanii wyborczych. Fałszywe nagrania szybko rozprzestrzeniają się w mediach społecznościowych, co może wpłynąć na wynik wyborów lub zniszczyć reputację polityka, zanim uda się zweryfikować ich autentyczność.
Wprowadzenie regulacji, takich jak NO FAKES Act, jest niezbędnym krokiem w walce z nadużyciami dokonywanymi przy użyciu AI. Jednakże walka z deepfake’ami wymaga również edukacji społecznej. Ważne jest, aby użytkownicy mediów społecznościowych byli świadomi istnienia tej technologii i nauczyli się krytycznie oceniać treści, które widzą online.
Podsumowanie
Technologia deepfake, choć może dostarczać rozrywki, stanowi także poważne zagrożenie dla osób publicznych, jak pokazał przykład Taylor Swift. Wprowadzenie odpowiednich regulacji prawnych oraz edukacja społeczna są niezbędne, aby chronić osoby publiczne i przeciwdziałać manipulacji wizerunkowej. Deepfake to wyzwanie, z którym musimy się zmierzyć w erze cyfrowej, ale świadomość jego istnienia i odpowiednie przepisy mogą pomóc w minimalizowaniu jego negatywnych skutków.
Więcej na temat muzyki w kampanii wyborczej pisaliśmy w artykule: Muzyka w kampanii wyborczej – o czym warto pamiętać? https://musicodex.pl/muzyka-w-kampanii-wyborczej-o-czym-warto-pamietac/
Anna Chojnowska