Dezinformacja, mowa nienawiści oraz treści generowane przez sztuczną inteligencję budzą rosnące obawy wśród obywateli Unii Europejskiej. Z najnowszego badania Eurobarometru wynika, że blisko 70 proc. mieszkańców UE dostrzega zagrożenia związane z komunikacją w sieci. W Polsce odsetek ten jest jeszcze wyższy i sięga nawet 75 proc.
Szczególne emocje wywołują deepfake, czyli realistyczne materiały wideo lub audio generowane przez sztuczną inteligencję. Mogą służyć manipulacji politycznej, oszustwom lub tworzeniu treści pornograficznych.
Obowiązek oznaczania treści AI
Europosłowie są zgodni, że problem wymaga regulacji. Różnią się jednak w ocenie, jak daleko powinny sięgać nowe przepisy.
Jak wskazuje Arkadiusz Mularczyk, poseł do Parlamentu Europejskiego. Dynamiczny rozwój sztucznej inteligencji sprawia, że w mediach społecznościowych pojawia się coraz więcej filmów trudnych do odróżnienia od autentycznych nagrań. W jego ocenie kluczowe jest jasne oznaczanie materiałów wygenerowanych przez AI. Tak aby odbiorca miał świadomość, z jakim rodzajem treści ma do czynienia.
Obowiązek oznaczania takich materiałów wynika z unijnego aktu o sztucznej inteligencji (AI Act). Część polityków podkreśla jednak, że to rozwiązanie może nie być wystarczające.
Miliony deepfake’ów w sieci
Z raportu Parlamentu Europejskiego z lipca 2025 roku wynika: W ubiegłym roku mogło zostać udostępnionych nawet 8 mln deepfake’ów. To o 7,5 mln więcej niż w 2023 roku! Komisja Europejska szacuje, że około 98 proc. tych materiałów stanowią treści pornograficzne.
Joanna Scheuring-Wielgus, posłanka do Parlamentu Europejskiego, wskazuje, że sztuczna inteligencja – przynosi poważne zagrożenia. Jej zdaniem konieczne jest stworzenie skutecznych przepisów umożliwiających szybkie usuwanie kłamstw, manipulacji i nielegalnych treści.
Przykładem była sprawa profilu „Prawilne_Polki” na TikToku, gdzie wygenerowane przez AI wizerunki młodych Polek zachęcały do opuszczenia przez Polskę Unii Europejskiej. Według Instytutu Monitorowania Mediów materiały osiągały setki tysięcy wyświetleń.

Ochrona dzieci i granice regulacji
Mirosława Nykiel, europosłanka Koalicji Obywatelskiej, podkreśla, że deepfaki i dezinformacja stanowią zagrożenie dla demokracji oraz bezpieczeństwa dzieci w sieci. W jej ocenie ochrona najmłodszych użytkowników internetu powinna być jednym z priorytetów legislacyjnych.
Z raportu NASK „Nastolatki” wynika, że 34 proc. uczniów drugich klas szkół średnich słyszało o pojęciu deepfake, a większość z nich miała już z nim styczność.
Wśród uczniów klas siódmych i ósmych szkół podstawowych znajomość tego zjawiska jest mniejsza. Jednak także w tej grupie część badanych zetknęła się z tego typu treściami. Co istotne, 7 proc. młodych respondentów przyznało, że padło ofiarą deepfake’ów.
Spór o wdrożenie przepisów
Urząd Ochrony Danych Osobowych wskazuje, że obecne regulacje zapewniają jedynie częściową ochronę przed nadużyciami związanymi z AI. Jednym z kluczowych narzędzi jest akt o usługach cyfrowych (DSA).
Ustawa wdrażająca DSA w Polsce została jednak zawetowana przez prezydenta Karola Nawrockiego. Prezydent argumentował, że proponowane przepisy mogą prowadzić do nadmiernej ingerencji w wolność słowa. Rząd z kolei podkreślał, że regulacje miały zwiększyć skuteczność walki z nielegalnymi treściami, w tym pedofilią czy oszustwami internetowymi.
Debata wokół regulacji pokazuje napięcie między potrzebą ochrony użytkowników internetu a obawami o ograniczanie swobody wypowiedzi.
Obywatele domagają się bezpieczeństwa
Z badania Eurobarometru wynika, że dezinformacja, mowa nienawiści, treści generowane przez AI oraz ochrona danych osobowych to jedne z głównych obaw Europejczyków. Jedynie co dziesiąty respondent nie dostrzega w tych zjawiskach zagrożenia.
Eksperci zwracają uwagę, że rozwój technologii postępuje w tempie wykładniczym, dlatego regulacje muszą być elastyczne i dostosowywane do zmieniających się realiów cyfrowych.
Ciekawostka
Pierwsze deepfaki pojawiły się w internecie niespełna dekadę temu i początkowo były traktowane jako ciekawostka technologiczna. Dziś stały się narzędziem wykorzystywanym w kampaniach dezinformacyjnych, oszustwach finansowych oraz przestępstwach seksualnych. Rozwój sztucznej inteligencji sprawia, że tworzenie realistycznych materiałów wideo jest coraz prostsze i tańsze. To powoduje, że skala zjawiska rośnie lawinowo. Dlatego temat regulacji i ochrony użytkowników internetu pozostaje jednym z kluczowych wyzwań współczesnej polityki cyfrowej.


