66 proc. użytkowników szuka informacji, ale trafia na fake newsy. Czas na cyfrową odpowiedzialność

66 proc. użytkowników szuka informacji, ale trafia na fake newsy. Czas na cyfrową odpowiedzialność

66 proc. użytkowników mediów społecznościowych w Unii Europejskiej przyznaje, że aktywnie szuka w nich informacji o bieżących wydarzeniach społecznych i politycznych – wynika z badania Eurobarometru „Social Media Survey” przeprowadzonego w czerwcu 2025 roku. Jednocześnie podobny odsetek obywateli UE zetknął się z dezinformacją i fałszywymi wiadomościami w ciągu siedmiu dni przed badaniem. Eksperci alarmują, że do walki z dezinformacją trzeba w większym stopniu włączyć platformy cyfrowe i powinno się to wiązać z modyfikacją algorytmów.

 

 Musimy rozmontować mechanizmy po stronie technologii, które sprzyjają dezinformacji. Nie możemy traktować jej jak wypadku przy pracy, tylko spójrzmy na fakty. Dezinformacja jest świetnym biznesem dla wielkich platform i jej popularność wynika z zasady działania algorytmów, jak również z tego, jak działa system reklamowy. Oba te systemy – rekomendacji algorytmicznych i reklam – musimy zmodyfikować, naprawić w taki sposób, żeby treści rzetelne, jakościowe były dla ludzi widoczne, a nie te dezinformujące – mówi agencji Newseria Katarzyna Szymielewicz, prezeska Fundacji Panoptykon.

 

Jak wynika z badania „Postawy Polaków wobec cyberbezpieczeństwa 2025”, przeprowadzonego przez SW Research na zlecenie Warszawskiego Instytutu Bankowości (WIB), 32 proc. ankietowanych wskazało dezinformację i fake newsy jako największe zagrożenie w przestrzeni cyfrowej. Badani deklarują, że wiedzą, jak się bronić przed tymi zjawiskami. 38 proc. twierdzi, że nie traktuje informacji prezentowanych w mediach społecznościowych jako głównego źródła wiedzy. 31 proc. weryfikuje je w różnych źródłach, ale tylko 17 proc. zgłasza lub blokuje treści o wątpliwym pochodzeniu.

 

66 proc. użytkowników szuka informacji, ale trafia na fake newsy. Czas na cyfrową odpowiedzialnośćKatarzyna Szymielewicz, prezeska Fundacji Panoptykon

Czytaj również: Dane resortu nie pozostawiają złudzeń. Pijani kierowcy dosłownie „zostawiają” skarbówce miliony zł

 

Raport WIB wskazuje, że 43 proc. Polaków twierdzi, że sprawdza wiarygodność informacji w przestrzeni cyfrowej, przy czym 17 proc. z nich weryfikuje je kilkoma różnymi metodami, a 26 proc. tylko w jeden sposób. 45 proc. badanych przyznaje, że robi to nieregularnie i w zależności od źródła.

 

Platformy cyfrowe argumentują, że już wprowadzają mechanizmy ograniczania dezinformacji, jednak zdaniem ekspertów są one niewystarczające.

 

 Mamy już od dwóch lat obowiązujący akt o usługach cyfrowych. W tych ramach Unia Europejska ma wiele mechanizmów i może naciskać platformy, żeby korygowały swoje algorytmy. Ma art. 34 i 35 DSA, który pozwala na określanie środków zaradczych, które powinny być wdrażane przez platformy – przypomina Katarzyna Szymielewicz.

 

Przepisy w ramach aktu o usługach cyfrowych (DSA) obowiązują od 17 lutego 2024 roku i muszą przestrzegać ich wszyscy dostawcy usług pośrednich, w tym serwisy społecznościowe, platformy handlu elektronicznego czy hostingodawcy. Celami ich wprowadzenia są m.in.: walka z nielegalnymi treściami w internecie, przeciwdziałanie zagrożeniom społecznym oraz zapewnienie większej przejrzystości korzystania z platform społecznościowych.

 

 Nie chodzi tylko o kary. Chodzi o to, żeby współdziałać z platformami albo zmuszać je, kiedy trzeba, do zmiany logiki działania algorytmów na taką, która służy ludziom, demokracji i społeczeństwu. Nie ma to nic wspólnego z moderacją treści, której słusznie można się obawiać, że jeżeli pojawia się ktoś, kto decyduje o tym, co jest prawdą, a co jest fałszem i moderuje treści, to zaczynamy mówić o cenzurze. Ja takiego podejścia nie proponuję. Proponuję modyfikację algorytmu dla wszystkich w taki sposób, żebyśmy zaczęli ze sobą rozmawiać jako społeczeństwo i jako politycy, a nie oglądać biernie podbijane treści niskiej jakości, które czynią szkodę debacie publicznej – podkreśla prezeska Fundacji Panoptykon.

 

Podobne zmiany, jak ocenia ekspertka, powinny dotyczyć treści generowanych przez sztuczną inteligencję.

 

– Coraz taniej jest produkować treści syntetyczne, sztuczne, które udają coś, czym nie są. Jest to potężny problem dla mediów, ale też jest pokusa, żeby tworzyć taki content, a nie treści dziennikarskie – mówi Katarzyna Szymielewicz. – Takie treści powinny być, zgodnie z regulacją o sztucznej inteligencji, oznaczane przez twórców jako syntetyczne, sztuczne, wykreowane. Platformy mogłyby na podstawie takich oznaczeń traktować je jako gorsze, które nie powinny być podbijane na równi z treściami wysokiej jakości, z treściami autentycznymi. Jest to kolejne rozwiązanie technologiczne, na które czekam i które wspiera Unię Europejską w Europejskiej Tarczy Demokracji.

 

Czytaj również: Zmiana klimatu, wylesianie i odpowiedzialne zakupy – co pokazują najnowsze badania


Z badania „Sztuczna inteligencja w mediach” zrealizowanego na zlecenie Krajowej Rady Radiofonii i Telewizji wynika, że ponad 92 proc. ankietowanych wie, że dziennikarze w telewizji, radiu czy internetowych portalach informacyjnych wykorzystują AI. Chociaż odbiorcy dostrzegają jej liczne zalety, to podchodzą z dużą dozą ostrożności do tej technologii w mediach. Dwie trzecie obawia się manipulacji opinią publiczną za pomocą treści tworzonych przez algorytmy, a prawie 45 proc. uważa, że może to wpłynąć na wzrost ryzyka dezinformacji. Blisko 80 proc. respondentów jest zdania, że wykorzystywanie AI może się przyczynić do zmniejszenia rzetelności i prawdziwości przekazu w mediach. Jednocześnie prawie 96 proc. odbiorców oczekuje, żeby materiały tworzone z wykorzystaniem sztucznej inteligencji były wyraźnie oznaczone.

 

 Musimy wystąpić razem przeciwko traktowaniu nas jak ludzi, którzy nie zasługują na autentyczne, jakościowe treści. Sprzeciwiamy się temu. Im więcej ludzi taki głos z siebie wydaje, również nie klikając w takie treści, tym szybciej osiągniemy ten cel – ocenia ekspertka. – To, jak dzisiaj działają platformy społecznościowe, jest bardzo niszczące dla społeczności, dialogu i pośrednio również dla procesów demokratycznych, ponieważ one nas polaryzują, wciągają w bańki informacyjne, sprawiają, że coraz bardziej pasywnie przeglądamy treści, nie angażując się w dyskusję. Jeżeli angażujemy się w dyskusję, to jest ona pełna hejtu, sensacji, silnych emocji. W ten sposób nie zbudujemy konsensusu, a konsensus w demokracji jest podstawą jakiejkolwiek decyzji i wyjścia z impasu.

2026-01-14
Źródło: NEWSERIA / budnet.pl

Czytaj też…

Czytaj na forum

  • Jak prowadzić biznes w XXI wieku - czym jest elast... Liczba postów: 149 Grupa: Aktualności Zachęcam do wejścia na panel opinii https://panel.badanie-opinii.pl/, gdzie w łatwy sposób można wymieniać punkty na gotówkę
  • Dodatkowa praca Liczba postów: 1 Grupa: Trudne tema... Zachęcam do wejścia na panel opinii https://panel.badanie-opinii.pl/, gdzie w łatwy sposób można wymieniać punkty na gotówkę
  • Przeprowadzka Liczba postów: 218 Grupa: Opinie Osobiście mogę Wam polecić stronę, na której znajdziecie ofertę firmy Warszawie Przeprowadzki - przeprowadzki międzymiastowe , która oferuje kompleksowe usługi....
  • samochód nowy czy używany Liczba postów: 648 Grupa: Trudne tema... Witam wszystkie osoby, które są zainteresowane tematem naszej rozmowy. Jeżeli zastanawiacie się nad zakupem samochodu, to polecam Wam sprawdzić stronę, gdzie zn...
  • pomoc z samochodem Liczba postów: 657 Grupa: Trudne tema... Wszystkim osobom zainteresowanym tematem mogę polecić stronę https://autokabina.pl/oferta/kabiny-laki ernicze/kabiny-lakiernicze-samochodowe-d la-motoryzacji/ , n...

Kalkulator izolacji ścian

Społeczność budnet.pl ma już 20689 użytkowników

Użytkownicy online (1)

gości: 269

Ostatnio dołączyli
Zobacz wszystkich >
Galerie
Zobacz wszystkie galerie >