論文の概要: Generic visuality of war? How image-generative AI models (mis)represent Russia's war against Ukraine
- arxiv url: http://arxiv.org/abs/2512.06570v1
- Date: Sat, 06 Dec 2025 21:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.413517
- Title: Generic visuality of war? How image-generative AI models (mis)represent Russia's war against Ukraine
- Title(参考訳): 戦争のジェネリックヴィジュアリティ : 画像生成AIモデル(ミス)は、ロシアのウクライナとの戦争をどう表現するか
- Authors: Mykola Makhortykh, Miglė Bareikytė,
- Abstract要約: 生成的AI(genAI)の台頭は、現代の戦争を含む社会現実のさまざまな側面の表現を変えることができる。
欧米のジェネシスモデルと非西洋のジェネシスモデルで表現された暴力のエピソード間で、genAI表現の実践がどう異なるかを検討する。
以上の結果から,文脈要因が同一モデルの出力とモデル間の戦争表現に変化をもたらすことが示唆された。
- 参考スコア(独自算出の注目度): 0.08594140167290099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of generative AI (genAI) can transform the representation of different aspects of social reality, including modern wars. While scholarship has largely focused on the military applications of AI, the growing adoption of genAI technologies may have major implications for how wars are portrayed, remembered, and interpreted. A few initial scholarly inquiries highlight the risks of genAI in this context, specifically regarding its potential to distort the representation of mass violence, particularly by sanitising and homogenising it. However, little is known about how genAI representation practices vary between different episodes of violence portrayed by Western and non-Western genAI models. Using the Russian aggression against Ukraine as a case study, we audit how two image-generative models, the US-based Midjourney and the Russia-based Kandinsky, represent both fictional and factual episodes of the war. We then analyse the models' responsiveness to the war-related prompts, together with the aesthetic and content-based aspects of the resulting images. Our findings highlight that contextual factors lead to variation in the representation of war, both between models and within the outputs of the same model. However, there are some consistent patterns of representation that may contribute to the homogenization of war aesthetics.
- Abstract(参考訳): 生成的AI(genAI)の台頭は、現代の戦争を含む社会現実のさまざまな側面の表現を変えることができる。
奨学金は主にAIの軍事的応用に焦点が当てられているが、genAI技術の普及は戦争がどう描写され、記憶され、解釈されるかに大きな影響を及ぼす可能性がある。
この文脈におけるgenAIのリスク、特に大量暴力の表現を歪める可能性、特に衛生と均質化によって、いくつかの学術的な調査が注目されている。
しかし、西欧のgenAIモデルと非西欧のgenAIモデルで描かれた暴力のエピソードの違いについてはほとんど分かっていない。
ウクライナに対するロシアの攻撃をケーススタディとして、米国拠点のMidjourneyとロシア拠点のKandinskyという2つの画像生成モデルが、戦争のフィクションと事実の両方を表現しているかを評価する。
次に、戦争関連プロンプトに対するモデルの応答性と、得られた画像の美的およびコンテンツに基づく側面を分析します。
以上の結果から,文脈的要因が,同一モデルの出力とモデル間の戦争表現の変動につながることが明らかとなった。
しかし、戦争美学の均質化に寄与するいくつかの一貫した表現パターンが存在する。
関連論文リスト
- Using complex prompts to identify fine-grained biases in image generation through ChatGPT-4o [0.0]
バイアスの2つの次元は、大きなAIモデルの研究を通して明らかにすることができる。
トレーニングデータやAIの製品に偏りがあるだけでなく、社会にも偏りがある。
画像生成AIに複雑なプロンプトを使ってバイアスのどちらの次元を調査できるかを簡単に議論する。
論文 参考訳(メタデータ) (2025-04-01T03:17:35Z) - Threats and Opportunities in AI-generated Images for Armed Forces [0.0]
画像合成のための生成人工知能(AI)の分野での最近の進歩は、軍隊にいくつかの新しい課題をもたらしている。
本報告の目的は、軍隊におけるAI生成画像の役割を調査し、機会と脅威について概観することである。
論文 参考訳(メタデータ) (2025-03-31T13:46:02Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - Gore Diffusion LoRA Model [2.1485350418225244]
本稿では、激しい暴力や流血を描写した超現実的視覚を生成するのに熟練した革新的なAIモデルである"Gore Diffusion LoRA Model"を精査する。
このようなモデルの作成と実装は、AI、芸術、暴力の収束に関する綿密な議論を保証している、と我々は主張する。
論文 参考訳(メタデータ) (2024-02-09T18:16:17Z) - Identifying and Mitigating the Security Risks of Generative AI [179.2384121957896]
本稿では,GenAIによる双対ジレンマに関するGoogleのワークショップの成果を報告する。
GenAIはまた、攻撃者が新しい攻撃を生成し、既存の攻撃のベロシティと有効性を高めるためにも使用できる。
この話題について,コミュニティの短期的,長期的目標について論じる。
論文 参考訳(メタデータ) (2023-08-28T18:51:09Z) - AI Imagery and the Overton Window [0.0]
本稿は、今日のAI開発者とユーザの両方が直面する懸念を調査する文献レビューである。
合法化の課題と倫理的懸念について論じ、AI生成モデルがいかに非常に有用であるかを結論付けている。
論文 参考訳(メタデータ) (2023-05-31T18:01:04Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。