Artificial intelligence and propaganda and disinformation: main challenges

Uložené v:
Podrobná bibliografia
Názov: Artificial intelligence and propaganda and disinformation: main challenges
Zdroj: Uzhhorod National University Herald. Series: Law; Vol. 5 No. 90 (2025): Uzhhorod National University Herald. Series: Law; 348-356
Научный вестник Ужгородского национального университета. Серия: Право; Том 5 № 90 (2025): Науковий вісник Ужгородського національного університету. Серія: Право; 348-356
Науковий вісник Ужгородського національного університету. Серія: Право; Том 5 № 90 (2025): Науковий вісник Ужгородського національного університету. Серія: Право; 348-356
Informácie o vydavateľovi: Державний вищий навчальний заклад «Ужгородський національний університет», 2025.
Rok vydania: 2025
Predmety: інформаційна безпека, інформаційна війна, Акт ЄС про ШІ, information security, deepfake, штучний інтелект, глобалізація, Україна, information war, artificial intelligence, media law, propaganda, EU AI Act, fact-checking, дезінформація, disinformation, Акт про цифрові послуги, Digital Services Act, пропаганда, Ukraine, медіаправо, globalization, фактчекінг
Popis: The article provides a comprehensive examination of the role of artificial intelligence (AI) in globalized information flows and delineates its dual impact on today’s communication environment. It traces the conceptual foundations of propaganda as a form of purposeful communication, outlines its digital evolution, and demonstrates how generative AI dramatically lowers the cost and expertise required to produce manipulative content at scale. The analysis covers emblematic cases of AI-enabled influence operations (notably “Operation Overload” and “Doppelgänger”), the deployment of synthetic media by non-state violent actors, and empirical findings indicating that AI-generated texts can match or exceed the persuasive power of human-written materials. The Ukrainian context is highlighted as a high-risk arena in which disinformation campaigns are embedded within broader hybrid-warfare strategies. The paper reviews the legal architecture of countermeasures, including Ukraine’s Laws “On Information” and “On Media,” relevant provisions of the Criminal Code, as well as the European Union’s risk-based framework embodied in the EU AI Act and the Digital Services Act. Special emphasis is placed on platform duties regarding transparency, systemic risk management, and labeling of synthetic media, together with the protective uses of AI in deepfake detection, automated fact-checking, identification of coordinated inauthentic behavior, and explainable user recommendations. Emerging Ukrainian initiatives that leverage machine learning to surface latent manipulations in open knowledge repositories are noted. It is argued that resilience to propaganda requires a balanced, systemic blend of legal regulation, technological trust tools (content provenance, watermarking, and model auditing), institutional moderation procedures, and media literacy. Such an integrated approach reduces harms stemming from the misuse of AI while preserving the openness and pluralism of the information space. In addition, the study stresses the urgency of aligning Ukraine’s national legislation with European standards to effectively counter AI-driven disinformation. It also underlines the importance of international cooperation, since disinformation campaigns rarely stop at national borders. Finally, the findings suggest that the future of information security will increasingly depend on the ability to combine human critical thinking with the analytical power of artificial intelligence.
У статті всебічно досліджено роль штучного інтелекту у глобалізованих інформаційних пото- ках та окреслено подвійний ефект його впливу на сучасну інформаційну екосистему. Простежено історичні та концептуальні засади пропаганди як технології цілеспрямованої комунікації, виявле- но особливості її еволюції у цифрову добу та показано, як генеративні моделі штучного інтелек- ту радикально знижують бар’єри входу для виробництва маніпулятивного контенту. Розглянуто показові кейси застосування ШІ у пропагандистських операціях (зокрема «Operation Overload» і «Doppelgänger»), використання синтетичних медіа недержавними насильницькими акторами, а також результати емпіричних досліджень, що засвідчують високу переконливість AI-згенеро- ваних матеріалів у порівнянні з текстами, створеними людьми. Окремо проаналізовано україн- ський контекст як простір підвищеної загрози, де дезінформаційні кампанії інтегровані у ширшу стратегію гібридної війни. Розкрито нормативні підвалини протидії: положення законів України «Про інформацію», «Про медіа», релевантні статті Кримінального кодексу, а також підхід Євро-пейського Союзу, представлений EU AI Act і Digital Services Act. Підкреслено обов’язки великих платформ щодо прозорості, управління ризиками та маркування синтетичного контенту, а також роль інструментів ШІ у детекції deepfake-матеріалів, автоматичному фактчекінгу, виявленні коор- динованої неавтентичної поведінки та формуванні пояснюваних рекомендацій для користувачів. Зазначено про появу вітчизняних ініціатив, що застосовують машинне навчання для ідентифікації латентних маніпуляцій у відкритих знаннєвих базах. Зроблено висновок про необхідність систем- ного поєднання правового регулювання, технологічних засобів довіри (маркування, походження контенту, аудит моделей), інституційних процедур модерації та медіаграмотності. Аргументова- но, що саме комплексність цих інструментів забезпечує стійкість демократичних суспільств до пропаганди, мінімізує шкоду від зловживань ШІ та водночас зберігає відкритість інформаційного простору.
Druh dokumentu: Article
Popis súboru: application/pdf
Jazyk: Ukrainian
ISSN: 2307-3322
2664-6153
Prístupová URL adresa: http://visnyk-pravo.uzhnu.edu.ua/article/view/341116
Rights: CC BY NC ND
Prístupové číslo: edsair.scientific.p..5bbb5edc3e2779347a38f8ac41f37143
Databáza: OpenAIRE
Popis
Abstrakt:The article provides a comprehensive examination of the role of artificial intelligence (AI) in globalized information flows and delineates its dual impact on today’s communication environment. It traces the conceptual foundations of propaganda as a form of purposeful communication, outlines its digital evolution, and demonstrates how generative AI dramatically lowers the cost and expertise required to produce manipulative content at scale. The analysis covers emblematic cases of AI-enabled influence operations (notably “Operation Overload” and “Doppelgänger”), the deployment of synthetic media by non-state violent actors, and empirical findings indicating that AI-generated texts can match or exceed the persuasive power of human-written materials. The Ukrainian context is highlighted as a high-risk arena in which disinformation campaigns are embedded within broader hybrid-warfare strategies. The paper reviews the legal architecture of countermeasures, including Ukraine’s Laws “On Information” and “On Media,” relevant provisions of the Criminal Code, as well as the European Union’s risk-based framework embodied in the EU AI Act and the Digital Services Act. Special emphasis is placed on platform duties regarding transparency, systemic risk management, and labeling of synthetic media, together with the protective uses of AI in deepfake detection, automated fact-checking, identification of coordinated inauthentic behavior, and explainable user recommendations. Emerging Ukrainian initiatives that leverage machine learning to surface latent manipulations in open knowledge repositories are noted. It is argued that resilience to propaganda requires a balanced, systemic blend of legal regulation, technological trust tools (content provenance, watermarking, and model auditing), institutional moderation procedures, and media literacy. Such an integrated approach reduces harms stemming from the misuse of AI while preserving the openness and pluralism of the information space. In addition, the study stresses the urgency of aligning Ukraine’s national legislation with European standards to effectively counter AI-driven disinformation. It also underlines the importance of international cooperation, since disinformation campaigns rarely stop at national borders. Finally, the findings suggest that the future of information security will increasingly depend on the ability to combine human critical thinking with the analytical power of artificial intelligence.<br />У статті всебічно досліджено роль штучного інтелекту у глобалізованих інформаційних пото- ках та окреслено подвійний ефект його впливу на сучасну інформаційну екосистему. Простежено історичні та концептуальні засади пропаганди як технології цілеспрямованої комунікації, виявле- но особливості її еволюції у цифрову добу та показано, як генеративні моделі штучного інтелек- ту радикально знижують бар’єри входу для виробництва маніпулятивного контенту. Розглянуто показові кейси застосування ШІ у пропагандистських операціях (зокрема «Operation Overload» і «Doppelgänger»), використання синтетичних медіа недержавними насильницькими акторами, а також результати емпіричних досліджень, що засвідчують високу переконливість AI-згенеро- ваних матеріалів у порівнянні з текстами, створеними людьми. Окремо проаналізовано україн- ський контекст як простір підвищеної загрози, де дезінформаційні кампанії інтегровані у ширшу стратегію гібридної війни. Розкрито нормативні підвалини протидії: положення законів України «Про інформацію», «Про медіа», релевантні статті Кримінального кодексу, а також підхід Євро-пейського Союзу, представлений EU AI Act і Digital Services Act. Підкреслено обов’язки великих платформ щодо прозорості, управління ризиками та маркування синтетичного контенту, а також роль інструментів ШІ у детекції deepfake-матеріалів, автоматичному фактчекінгу, виявленні коор- динованої неавтентичної поведінки та формуванні пояснюваних рекомендацій для користувачів. Зазначено про появу вітчизняних ініціатив, що застосовують машинне навчання для ідентифікації латентних маніпуляцій у відкритих знаннєвих базах. Зроблено висновок про необхідність систем- ного поєднання правового регулювання, технологічних засобів довіри (маркування, походження контенту, аудит моделей), інституційних процедур модерації та медіаграмотності. Аргументова- но, що саме комплексність цих інструментів забезпечує стійкість демократичних суспільств до пропаганди, мінімізує шкоду від зловживань ШІ та водночас зберігає відкритість інформаційного простору.
ISSN:23073322
26646153