Google zaktualizował swoją politykę dotyczącą treści politycznych, wymagając od reklamodawców wyborczych wyraźnego ujawnienia wykorzystania sztucznej inteligencji w reklamach. Nowa polityka Google wejdzie w życie w połowie listopada, na rok przed wyborami prezydenckimi w USA.
- Google zaktualizowało swoją politykę dotyczącą treści politycznych, wymagając od reklamodawców wyborczych wyraźnego określenia, czy wykorzystali sztuczną inteligencję w reklamie.
- Zmiany wejdą w życie w połowie listopada, na rok przed wyborami prezydenckimi w 2024 r., które mają być pierwszym cyklem wyborczym, w którym sztuczna inteligencja może mieć kluczowe znaczenie przy urnach.
- Reprezentantka z Nowego Jorku zaprezentowała ustawę wymagającą zastrzeżeń dotyczących sztucznej inteligencji w reklamach politycznych w odpowiedzi na reklamę Partii Republikańskiej.
Google wprowadziło aktualizację swojej polityki dotyczącej treści politycznych, zobowiązując reklamodawców wyborczych do wyraźnego oznaczenia, czy wykorzystują sztuczną inteligencję w swoich reklamach.
Te zmiany zaczną obowiązywać od połowy listopada, rok przed wyborami prezydenckimi w 2024 roku, które przewiduje się, że będą to pierwsze wybory, w którym sztuczna inteligencja może odgrywać kluczową rolę w sondażach.
Nowa polityka wymaga, aby zweryfikowani reklamodawcy wyborczy wyjawiali, czy wykorzystali sztuczną inteligencję do manipulowania „materiałem filmowym z prawdziwego zdarzenia lub generowania realistycznych obrazów zdarzeń, które nigdy nie miały miejsca”. Wymóg ten dotyczy również sytuacji, w których wydaje się, że określona osoba wypowiedziała lub zrobiła coś, czego w rzeczywistości nie uczyniła.
Oznaczenie musi być umieszczone w widocznym miejscu, dostępnym dla konsumentów, i musi odnosić się do wszystkich rodzajów treści, w tym zdjęć, filmów i dźwięku.
W reklamach już korzysta się ze sztucznej inteligencji, a jak reagują na to politycy?
Po ogłoszeniu przez prezydenta Joe Bidena swojej kandydatury na reelekcję, Partia Republikańska opublikowała 30-sekundową reklamę, którą określiła jako „spojrzenie wygenerowane przez sztuczną inteligencję na potencjalną przyszłość kraju, jeśli Joe Biden zostanie ponownie wybrany w 2024 roku”.
W czerwcu kampania prezydencka gubernatora Florydy, Rona DeSantisa, opublikowała na Twitterze film, który zawierał trzy fikcyjne sceny przedstawiające prezydenta Donalda Trumpa całującego dr. Anthony’ego Fauciego. Film nie zawierał jednak informacji o pochodzeniu grafiki generowanej przez sztuczną inteligencję.
Reprezentantka Yvette D. Clarke z Nowego Jorku przedstawiła ustawę, która nakładałaby obowiązek umieszczania oznaczeń dotyczących użycia sztucznej inteligencji w reklamach politycznych w odpowiedzi na reklamę Partii Republikańskiej.
„Przed nami pierwszy w historii Stanów Zjednoczonych cykl wyborczy, w którym kampanie, partie polityczne i komitety polityczne mogą wykorzystywać treści generowane przez sztuczną inteligencję w reklamach politycznych. Treści te mogą stanowić zagrożenie dla naszego bezpieczeństwa narodowego i integralności wyborów, jeśli pozwalają na masową manipulację i dezinformację” – podkreśliła Clarke w swoim oświadczeniu.
Pierwsze wybory z udziałem sztucznej inteligencji. Czy wyborcy powinni być zaniepokojeni?
Chuck Schumer, demokratyczny lider większości w Senacie z Nowego Jorku przedstawił wytyczne w walce z wykorzystaniem sztucznej inteligencji. Już w kwietniu zaznaczył, że Stany Zjednoczone muszą zainicjować tworzenie regulacji dotyczących sztucznej inteligencji. Jego celem jest zwiększenie bezpieczeństwa, odpowiedzialności i przejrzystości w kontekście ewoluującej technologii oraz stworzenie przepisów mających na celu zarządzanie potencjalnymi zagrożeniami związanymi ze sztuczną inteligencją. Czy to powód do obaw dla wyborców?