論文の概要: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- arxiv url: http://arxiv.org/abs/2504.09030v2
- Date: Fri, 16 May 2025 17:39:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:12.767587
- Title: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- Title(参考訳): 権威主義的再帰: 教育、戦争、言論におけるフィクション、歴史、AIの強化
- Authors: Hasan Oguz,
- Abstract要約: この記事では、人工知能システムが教育、戦争、デジタル言論の制御をますます仲介する方法について述べる。
ケーススタディには、教室の監視における生成AIモデル、軍事AIシステムの自律的ターゲティング、プラットフォームガバナンスにおけるコンテンツキュレーションロジックが含まれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article introduces the concept of \textit{authoritarian recursion} to describe how artificial intelligence (AI) systems increasingly mediate control across education, warfare, and digital discourse. Drawing on critical discourse analysis and sociotechnical theory, the study reveals how AI-driven platforms delegate judgment to algorithmic processes, normalize opacity, and recursively reinforce behavioral norms under the guise of neutrality and optimization. Case studies include generative AI models in classroom surveillance, autonomous targeting in military AI systems, and content curation logics in platform governance. Rather than treating these domains as disparate, the paper maps their structural convergence within recursive architectures of abstraction, surveillance, and classification. These feedback systems do not simply automate tasks -- they encode modes of epistemic authority that disperse accountability while intensifying political asymmetries. Through cultural and policy analysis, the article argues that authoritarian recursion operates as a hybrid logic, fusing technical abstraction with state and market imperatives. The paper concludes by outlining implications for democratic legitimacy, human oversight, and the political design of AI governance frameworks. This framework contributes to emerging debates on algorithmic accountability by foregrounding how recursion acts not merely as a technical function but as a sociopolitical instrument of control.
- Abstract(参考訳): 本稿では、人工知能(AI)システムが、教育、戦争、デジタル談話の制御をますます仲介する様子を説明するために、‘textit{authoritarian recursion’の概念を紹介する。
批判的談話分析と社会技術理論に基づいて、この研究は、AIが主導するプラットフォームが、アルゴリズムのプロセスに判断を委譲し、不透明性を正規化し、中立性と最適化の指針の下で行動規範を反復的に強化する方法を明らかにした。
ケーススタディには、教室の監視における生成AIモデル、軍事AIシステムの自律的ターゲティング、プラットフォームガバナンスにおけるコンテンツキュレーションロジックが含まれる。
論文は、これらのドメインを異なるものとして扱うのではなく、抽象、監視、分類の再帰的アーキテクチャにおける構造的収束をマッピングする。
これらのフィードバックシステムは単にタスクを自動化するのではなく、説明責任を分散し、政治的非対称性を強くする疫学的権威のモードを符号化する。
文化的および政策分析を通じて、権威主義的再帰はハイブリッド論理として機能し、国家や市場命令と技術的抽象化を融合させると主張している。
この論文は、民主的正当性、人間の監督、AIガバナンスフレームワークの政治的デザインの意味を概説することで締めくくっている。
この枠組みは、再帰が単に技術的な機能としてではなく、社会政治的な制御手段としてどのように振る舞うかを予見することで、アルゴリズム的説明責任に関する新たな議論に寄与する。
関連論文リスト
- The Philosophic Turn for AI Agents: Replacing centralized digital rhetoric with decentralized truth-seeking [0.0]
AI技術に直面すると、個人はますますAIエージェントに頼り、生活の複雑化をナビゲートするようになる。
本稿では、AI意思決定支援システムによって引き起こされる基本的なジレンマに対処する。
論文 参考訳(メタデータ) (2025-04-24T19:34:43Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Reconfiguring Participatory Design to Resist AI Realism [1.0878040851638]
本稿では,参加型デザインがAIリアリズムに疑問を呈し抵抗する役割を担っていることを論じる。
AIリアリズムの3つの側面について検討する:真のエンパワーメントを欠く民主化のファサード、人間の適応性への要求、AIシステムを実現する必要不可欠な人的労働の難しさ。
PDを再構成して価値中心のビジョンへの関与を継続し、AI以外の選択肢を探究し、AIシステムを目に見えるものにすることで、AIリアリズムに抵抗することを提案する。
論文 参考訳(メタデータ) (2024-06-05T13:21:46Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。