論文の概要: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- arxiv url: http://arxiv.org/abs/2504.09030v3
- Date: Sat, 07 Jun 2025 21:39:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.011816
- Title: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- Title(参考訳): 権威主義的再帰: 教育、戦争、言論におけるフィクション、歴史、AIの強化
- Authors: Hasan Oguz,
- Abstract要約: 論文は、人工知能システムが教育、軍事活動、デジタル談話の機関的制御を統合する方法を理論的に論じている。
インテリジェントシステムは、効率性と中立性という概念の下で階層構造を正規化する方法を分析する。
ケーススタディには、教育における自動プロクター、戦争における自律的ターゲティング、社会プラットフォームにおけるアルゴリズムによるキュレーションなどが含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article develops the concept of authoritarian recursion to theorize how artificial intelligence (AI) systems consolidate institutional control across education, military operations, and digital discourse. Rather than treating these domains in isolation, it identifies a shared recursive architecture in which algorithmic systems mediate judgment, obscure accountability, and reshape the conditions of moral and epistemic agency. Grounded in critical discourse analysis and sociotechnical ethics, the paper synthesizes historical precedent, cultural narrative, and contemporary deployment to examine how intelligent systems normalize hierarchy under the guise of efficiency and neutrality. Case studies include automated proctoring in education, autonomous targeting in warfare, and algorithmic curation on social platforms. Cultural imaginaries such as Orwell's *Nineteen Eighty-Four*, *The Terminator*'s Skynet, and *Black Mirror* are treated as heuristic devices that illuminate public anxieties and design assumptions embedded in technological systems. The analysis integrates frameworks from the Fairness, Accountability, and Transparency (FAccT) paradigm, relational ethics, and data justice theory to explore the normative implications of predictive infrastructures. It argues that recursive control operates through moral outsourcing, behavioral normalization, and epistemic closure. By reframing AI not as a neutral tool but as a communicative and institutional infrastructure, the article highlights the need for ethical orientations that prioritize democratic refusal, epistemic plurality, and responsible design in the governance of intelligent systems.
- Abstract(参考訳): 本稿では、人工知能(AI)システムが教育、軍事活動、デジタル談話の機関的制御をどのように統合するかを理論化するための権威主義的再帰の概念を発展させる。
これらの領域を個別に扱うのではなく、アルゴリズムシステムが判断を仲介し、説明責任を曖昧にし、道徳的・疫学的エージェンシーの状態を再構築する共有再帰的アーキテクチャを識別する。
批判的談話分析と社会技術的倫理を基礎として、この論文は、歴史的先例、文化的物語、現代的展開を合成し、インテリジェントシステムが、効率性と中立性という概念の下で階層構造をどのように正規化するかを考察する。
ケーススタディには、教育における自動プロクター、戦争における自律的ターゲティング、社会プラットフォームにおけるアルゴリズムによるキュレーションなどが含まれる。
Orwellの『Nineteen Eighty-Four*』や『The Terminator*'s Skynet』や『Black Mirror*』といった文化的想像は、技術系に埋め込まれた公的な不安や設計の前提を照らすヒューリスティックな装置として扱われる。
この分析は、フェアネス、アカウンタビリティ、透明性(FAccT)パラダイム、リレーショナル倫理、データ正義理論といったフレームワークを統合し、予測インフラの規範的含意を探求する。
再帰的制御は、道徳的アウトソーシング、行動正規化、およびてんかん閉鎖を通じて行われると論じている。
この記事では、AIを中立的なツールではなく、コミュニケーションと制度のインフラとして捉えることにより、知的システムのガバナンスにおける民主的拒絶、疫学的な複数、責任ある設計を優先する倫理的指向の必要性を強調している。
関連論文リスト
- The Philosophic Turn for AI Agents: Replacing centralized digital rhetoric with decentralized truth-seeking [0.0]
AI技術に直面すると、個人はますますAIエージェントに頼り、生活の複雑化をナビゲートするようになる。
本稿では、AI意思決定支援システムによって引き起こされる基本的なジレンマに対処する。
論文 参考訳(メタデータ) (2025-04-24T19:34:43Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Reconfiguring Participatory Design to Resist AI Realism [1.0878040851638]
本稿では,参加型デザインがAIリアリズムに疑問を呈し抵抗する役割を担っていることを論じる。
AIリアリズムの3つの側面について検討する:真のエンパワーメントを欠く民主化のファサード、人間の適応性への要求、AIシステムを実現する必要不可欠な人的労働の難しさ。
PDを再構成して価値中心のビジョンへの関与を継続し、AI以外の選択肢を探究し、AIシステムを目に見えるものにすることで、AIリアリズムに抵抗することを提案する。
論文 参考訳(メタデータ) (2024-06-05T13:21:46Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。