論文の概要: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- arxiv url: http://arxiv.org/abs/2504.09030v1
- Date: Sat, 12 Apr 2025 01:01:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:53:50.262950
- Title: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- Title(参考訳): 権威主義的再帰: 教育、戦争、言論におけるフィクション、歴史、AIの強化
- Authors: Hasan Oguz,
- Abstract要約: この研究は、AI技術が権威主義的制御の構造をいかに再現するかを研究するために、混合メソッドのアプローチを採用する。
この研究は、未確認の自律性、アルゴリズムの不透明度、監視正規化、構造バイアスの増幅など、繰り返し発生する害パターンを特定する。
この発見は、歴史、批判的社会理論、技術設計からの教訓を統合する包括的な倫理的枠組みを求めている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The growing integration of artificial intelligence (AI) into military, educational, and propaganda systems raises urgent ethical challenges related to autonomy, bias, and the erosion of human oversight. This study employs a mixed-methods approach -- combining historical analysis, speculative fiction critique, and contemporary case studies -- to examine how AI technologies may reproduce structures of authoritarian control. Drawing parallels between Nazi-era indoctrination systems, the fictional Skynet AI from \textit{The Terminator}, and present-day deployments of AI in classrooms, battlefields, and digital media, the study identifies recurring patterns of harm. These include unchecked autonomy, algorithmic opacity, surveillance normalization, and the amplification of structural bias. In military contexts, lethal autonomous weapons systems (LAWS) undermine accountability and challenge compliance with international humanitarian law. In education, AI-driven learning platforms and surveillance technologies risk reinforcing ideological conformity and suppressing intellectual agency. Meanwhile, AI-powered propaganda systems increasingly manipulate public discourse through targeted content curation and disinformation. The findings call for a holistic ethical framework that integrates lessons from history, critical social theory, and technical design. To mitigate recursive authoritarian risks, the study advocates for robust human-in-the-loop architectures, algorithmic transparency, participatory governance, and the integration of critical AI literacy into policy and pedagogy.
- Abstract(参考訳): 人工知能(AI)の軍事、教育、プロパガンダシステムへの統合は、自律性、偏見、人間の監視の侵食に関連する緊急の倫理的課題を提起する。
この研究は、歴史的分析、投機的フィクション批評、現代ケーススタディを組み合わせた混合方法論のアプローチを用いて、AI技術が権威主義的制御の構造をどのように再現するかを検証している。
ナチス時代の教義体系、‘textit{The Terminator}’の架空のSkynet AI、そして今日の教室、戦場、デジタルメディアにおけるAIの展開の類似性について、この研究は繰り返し発生する害のパターンを特定する。
これには、未確認の自律性、アルゴリズムの不透明度、監視の正規化、構造バイアスの増幅が含まれる。
軍事的文脈では、致命的な自律兵器システム(LAWS)は説明責任を弱め、国際人道法の遵守に挑戦する。
教育において、AIによる学習プラットフォームと監視技術は、イデオロギーの適合性を強化し、知的機関を抑圧するリスクがある。
一方、AIを利用したプロパガンダシステムは、ターゲットのコンテンツキュレーションと偽情報を通じて、公衆の会話を操作しやすくなっている。
この発見は、歴史、批判的社会理論、技術設計からの教訓を統合する包括的な倫理的枠組みを求めている。
再帰的な権威主義的リスクを軽減するため、この研究は堅牢なヒューマン・イン・ザ・ループアーキテクチャ、アルゴリズムの透明性、参加型ガバナンス、そして重要なAIリテラシーの政策と教育への統合を提唱している。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Reconfiguring Participatory Design to Resist AI Realism [1.0878040851638]
本稿では,参加型デザインがAIリアリズムに疑問を呈し抵抗する役割を担っていることを論じる。
AIリアリズムの3つの側面について検討する:真のエンパワーメントを欠く民主化のファサード、人間の適応性への要求、AIシステムを実現する必要不可欠な人的労働の難しさ。
PDを再構成して価値中心のビジョンへの関与を継続し、AI以外の選択肢を探究し、AIシステムを目に見えるものにすることで、AIリアリズムに抵抗することを提案する。
論文 参考訳(メタデータ) (2024-06-05T13:21:46Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Interdisciplinary Approaches to Understanding Artificial Intelligence's
Impact on Society [7.016365171255391]
aiは、予期せぬ社会技術的問題を引き起こしている。
コンピュータ科学と社会と社会の価値を研究する分野の密接な結合が必要です。
論文 参考訳(メタデータ) (2020-12-11T00:43:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。