論文の概要: Genocide by Algorithm in Gaza: Artificial Intelligence, Countervailing Responsibility, and the Corruption of Public Discourse
- arxiv url: http://arxiv.org/abs/2602.09202v1
- Date: Mon, 09 Feb 2026 21:10:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.249218
- Title: Genocide by Algorithm in Gaza: Artificial Intelligence, Countervailing Responsibility, and the Corruption of Public Discourse
- Title(参考訳): ガザにおけるアルゴリズムによるジェノサイド:人工知能、責任の無効化、公論の崩壊
- Authors: Branislav Radeljic,
- Abstract要約: 人工知能の軍事化の加速は、戦争の倫理、政治、統治を変革させた。
この記事では、AIによるターゲティングシステムが、暴力を分類、正当化、実行するためのインフラとして機能するかを問う。
ガザ事件は、AIを中立的な手段としてではなく、植民地階層の再生と残虐行為の正規化に積極的に関与していることを明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The accelerating militarization of artificial intelligence has transformed the ethics, politics, and governance of warfare. This article interrogates how AI-driven targeting systems function as epistemic infrastructures that classify, legitimize, and execute violence, using Israel's conduct in Gaza as a paradigmatic case. Through the lens of responsibility, the article examines three interrelated dimensions: (a) political responsibility, exploring how states exploit AI to accelerate warfare while evading accountability; (b) professional responsibility, addressing the complicity of technologists, engineers, and defense contractors in the weaponization of data; and (c) personal responsibility, probing the moral agency of individuals who participate in or resist algorithmic governance. This is complemented by an examination of the position and influence of those participating in public discourse, whose narratives often obscure or normalize AI-enabled violence. The Gaza case reveals AI not as a neutral instrument but as an active participant in the reproduction of colonial hierarchies and the normalization of atrocity. Ultimately, the paper calls for a reframing of technological agency and accountability in the age of automated warfare. It concludes that confronting algorithmic violence demands a democratization of AI ethics, one that resists technocratic fatalism and centers the lived realities of those most affected by high-tech militarism.
- Abstract(参考訳): 人工知能の軍事化の加速は、戦争の倫理、政治、統治を変革させた。
本稿では、ガザにおけるイスラエルの行為をパラダイム的ケースとして用いて、AI駆動のターゲティングシステムが、暴力を分類、正当化、実行するための疫学的基盤として機能するかを問う。
責任のレンズを通して、この記事は3つの相互関係の次元を調べる。
(a)責任を負い、国家がAIを利用して説明責任を回避しながら戦争を加速する方法を探求すること
ロ データの兵器化における技術者、技術者及び防衛請負業者の混同に対処する専門的責任
(c) アルゴリズムの統治に参与又は抵抗する個人の道徳的機関を調査する、個人の責任。
これは、公的な談話に参加する人々の位置と影響を調べることで補われ、その物語はAIによる暴力を曖昧にしたり、正規化したりすることが多い。
ガザ事件は、AIを中立的な手段としてではなく、植民地階層の再生と残虐行為の正規化に積極的に関与していることを明らかにする。
最終的にこの論文は、自動戦争の時代における技術機関の再フレーミングと説明責任を求めている。
アルゴリズムによる暴力に直面すると、AI倫理の民主化が要求される、と結論付けている。
関連論文リスト
- Three Lenses on the AI Revolution: Risk, Transformation, Continuity [1.5567685129899713]
人工知能(AI)は、歴史的技術革命の継続とそれに伴う潜在的破壊の両方として出現している。
この論文は、AIを3つのレンズで同時に見る必要がある、と論じている:textitriskは、その不可逆性とグローバルな外部性において、核技術に類似している、textittransformationは、生産性と労働の再編成を推進している汎用技術として産業革命と平行している、textitcontinuityは、パーソナルコンピューティングからインターネット、モバイルまで、50年間のコンピュータ革命の範囲を拡大している。
論文 参考訳(メタデータ) (2025-10-14T14:53:49Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Designing AI-Enabled Countermeasures to Cognitive Warfare [0.0]
ソーシャルメディアプラットフォーム上での外国情報操作は、民主主義社会に重大なリスクをもたらす。
人工知能(AI)の台頭により、この脅威は強化され、潜在的に圧倒的な人間の防御者となる可能性がある。
本稿では,認知戦争に対するAI対応対策の可能性を提案する。
論文 参考訳(メタデータ) (2025-04-14T11:36:03Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - Bad, mad, and cooked: Moral responsibility for civilian harms in
human-AI military teams [0.0]
この章では、人文知能(AI)チームによる民間の損害に対する道徳的責任について論じる。
軍事力の増大は、不適切な意思決定環境に配置することで、良いリンゴを「調理」する可能性がある。
この章は、人間-AIチームにおける道徳的責任の条件をマップアウトするための新しいメカニズムを提供する。
論文 参考訳(メタデータ) (2022-10-31T10:18:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - In Oxford Handbook on AI Governance: The Role of Workers in AI Ethics
and Governance [0.0]
この章は、労働者がAI技術による害を特定し緩和する役割について考察する。
AI倫理コミュニティには、害の軽減のメリットに関するコンセンサスが高いが、害の判定や対処のメカニズムに関するコンセンサスは少ない。
この章では、労働者がAIシステムによって引き起こされる害を特定し緩和する上で、ユニークな役割を担っていると論じている。
論文 参考訳(メタデータ) (2021-08-05T13:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。