23 listopada, 2024

Magyar24

Polska Najnowsze wiadomości, zdjęcia, filmy i raporty specjalne z. Polska Blogi, komentarze i wiadomości archiwalne na …

OpenAI twierdzi, że grupy rosyjskie i izraelskie wykorzystywały jego narzędzia do szerzenia dezinformacji | OpenAI

W czwartek OpenAI opublikowało swój pierwszy w historii raport na temat wykorzystania narzędzi sztucznej inteligencji do tajnych operacji wywierania wpływu, ujawniając, że firma udaremniła kampanie dezinformacyjne prowadzone w Rosji, Chinach, Izraelu i Iranie.

Złośliwi przestępcy wykorzystali opracowane przez firmę modele generatywnej sztucznej inteligencji do tworzenia i rozpowszechniania treści reklamowych na platformach mediów społecznościowych oraz do tłumaczenia ich treści na różne języki. Żadna z kampanii nie zyskała popularności ani nie dotarła do dużej grupy odbiorców, Według raportu.

Ponieważ generatywna sztuczna inteligencja stała się dynamicznie rozwijającą się branżą, wśród badaczy i prawodawców pojawiły się powszechne obawy co do jej potencjału w zakresie zwiększania ilości i jakości dezinformacji w Internecie. Firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, które tworzy ChatGPT, próbowały rozwiać te obawy i postawić bariery dla swojej technologii, z różnymi rezultatami.

39-stronicowy raport OpenAI to jeden z najbardziej szczegółowych raportów firmy AI na temat wykorzystania jej oprogramowania do celów reklamowych. OpenAI twierdziło, że jego badacze znaleźli i zablokowali konta powiązane z pięcioma tajnymi operacjami wywierania wpływu w ciągu ostatnich trzech miesięcy, które były prowadzone zarówno przez podmioty rządowe, jak i prywatne.

W Rosji dwie operacje stworzyły i rozpowszechniły treści krytyczne wobec Stanów Zjednoczonych, Ukrainy i kilku krajów bałtyckich. W jednej operacji wykorzystano model OpenAI do debugowania kodu i utworzenia bota wdrożonego w Telegramie. W ramach chińskiej operacji wywierania wpływu powstały teksty w języku angielskim, chińskim, japońskim i koreańskim, które aktywiści opublikowali następnie na Twitterze i Medium.

Przedstawiciele Iranu stworzyli całe artykuły atakujące Stany Zjednoczone i Izrael i przetłumaczyli je na angielski i francuski. Izraelska firma polityczna o nazwie Stoic prowadziła sieć fałszywych kont w mediach społecznościowych, na których tworzono szereg treści, w tym posty oskarżające protesty amerykańskich studentów przeciwko izraelskiej wojnie w Gazie o antysemityzm.

Wiele rozpowszechniaczy dezinformacji, których OpenAI zakazało na swojej platformie, było już znanych badaczom i władzom. Skarb Stanów Zjednoczonych Sankcje nałożone na dwóch Rosjan W marcu rzekomo stali za jedną z kampanii wykrytych przez OpenAI, a Meta również w tym roku wyrzuciła Stoic ze swojej platformy za naruszenie jej zasad.

W raporcie podkreślono również, jak produktywną sztuczną inteligencję można włączyć do kampanii dezinformacyjnych w celu ulepszenia niektórych aspektów tworzenia treści, takich jak publikowanie bardziej przekonujących postów w języku obcym, ale nie jest to jedyne narzędzie propagandowe.

„Wszystkie te operacje w pewnym stopniu wykorzystywały sztuczną inteligencję, ale żadna z nich nie wykorzystywała jej wyłącznie” – czytamy w raporcie. „Zamiast tego materiały wygenerowane przez sztuczną inteligencję były tylko jednym z wielu rodzajów treści, które publikowali, obok tradycyjnych formatów, takich jak teksty pisane odręcznie czy memy kopiowane online”.

Chociaż żadna z kampanii nie przyniosła zauważalnego wpływu, wykorzystanie tej technologii pokazuje, jak szkodliwi przestępcy odkryli, że generatywna sztuczna inteligencja pozwala im skalować produkcję propagandową. Obecnie możliwe jest efektywniejsze pisanie, tłumaczenie i publikowanie treści dzięki wykorzystaniu narzędzi AI, ograniczając poziom tworzenia kampanii dezinformacyjnych.

W ciągu ostatniego roku szkodliwi przestępcy wykorzystywali generatywną sztuczną inteligencję w krajach na całym świecie, próbując wpłynąć na politykę i opinię publiczną. Do zakłócania kampanii wyborczych wykorzystuje się fałszywe nagrania dźwiękowe, obrazy generowane przez sztuczną inteligencję i kampanie tekstowe, zwiększając presję na firmy takie jak OpenAI, aby ograniczyły korzystanie z ich narzędzi.

OpenAI oświadczyło, że planuje okresowo publikować podobne raporty na temat tajnych operacji wywierania wpływu, a także usuwać konta naruszające jego zasady.