論文の概要: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- arxiv url: http://arxiv.org/abs/2504.09030v4
- Date: Wed, 06 Aug 2025 09:23:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 15:43:08.2901
- Title: Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse
- Title(参考訳): 権威主義的再帰: 教育、戦争、言論におけるフィクション、歴史、AIの強化
- Authors: Hasan Oguz,
- Abstract要約: 論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article introduces the concept of \textit{authoritarian recursion} to theorize how AI systems consolidate institutional control across education, warfare, and digital discourse. It identifies a shared recursive architecture in which algorithms mediate judgment, obscure accountability, and constrain moral and epistemic agency. Grounded in critical discourse analysis and sociotechnical ethics, the paper examines how AI systems normalize hierarchy through abstraction and feedback. Case studies -- automated proctoring, autonomous weapons, and content recommendation -- are analyzed alongside cultural imaginaries such as Orwell's \textit{Nineteen Eighty-Four}, Skynet, and \textit{Black Mirror}, used as heuristic tools to surface ethical blind spots. The analysis integrates Fairness, Accountability, and Transparency (FAccT), relational ethics, and data justice to explore how predictive infrastructures enable moral outsourcing and epistemic closure. By reframing AI as a communicative and institutional infrastructure, the article calls for governance approaches that center democratic refusal, epistemic plurality, and structural accountability.
- Abstract(参考訳): 本稿では、AIシステムが教育、戦争、デジタル談話の制度的制御をどのように統合するかを理論化するために、‘textit{authoritarian recursion’の概念を紹介する。
それは、アルゴリズムが判断、不明瞭な説明責任、そして、道徳的および疫学的なエージェンシーを仲介する共有再帰的アーキテクチャを識別する。
批判的談話分析と社会技術的倫理を基礎として,AIシステムが抽象とフィードバックを通じて階層構造をどのように正規化するかを検討する。
ケーススタディ — 自動プロクター、自律兵器、コンテンツレコメンデーション — は、オーウェルの『textit{Nineteen Eighty-Four}』や『Skynet』、そして『textit{Black Mirror}』といった文化的想像物とともに分析され、倫理的な盲点を探索するためのヒューリスティックなツールとして使用される。
この分析はフェアネス、アカウンタビリティ、透明性(FAccT)、リレーショナル倫理、およびデータ正義を統合し、予測的インフラが道徳的アウトソーシングと疫学的閉鎖を可能にする方法を探究する。
この記事では、AIをコミュニケーションと制度の基盤とすることで、民主的拒絶、複数の疫病、構造的説明責任の中心となるガバナンスアプローチを求める。
関連論文リスト
- Epistemic Scarcity: The Economics of Unresolvable Unknowns [0.0]
我々は、AIシステムは経済調整の中核的な機能を実行することができないと主張している。
我々は、構成主義的合理主義の拡張として、支配的な倫理的AIフレームワークを批判する。
論文 参考訳(メタデータ) (2025-07-02T08:46:24Z) - Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - The Philosophic Turn for AI Agents: Replacing centralized digital rhetoric with decentralized truth-seeking [0.0]
AI技術に直面すると、個人はますますAIエージェントに頼り、生活の複雑化をナビゲートするようになる。
本稿では、AI意思決定支援システムによって引き起こされる基本的なジレンマに対処する。
論文 参考訳(メタデータ) (2025-04-24T19:34:43Z) - Naming is framing: How cybersecurity's language problems are repeating in AI governance [0.0]
この論文は、サイバーセキュリティや人工知能(AI)のようなミスノマーは意味論以上のものだと論じている。
これらのミスノマーは、人事機関を隠蔽し、期待を膨らませ、説明責任を歪ませることで、重大なガバナンスリスクを負うと主張している。
この論文は、AIガバナンスに対する言語第一のアプローチを提唱している: 支配的な比喩を尋問し、人間の役割を予見し、正確で包括的で反射的なレキシコンを共同開発する。
論文 参考訳(メタデータ) (2025-04-16T20:58:26Z) - Decoding the Black Box: Integrating Moral Imagination with Technical AI Governance [0.0]
我々は、防衛、金融、医療、教育といった高度な領域に展開するAI技術を規制するために設計された包括的なフレームワークを開発する。
本手法では,厳密な技術的分析,定量的リスク評価,規範的評価を併用して,システム的脆弱性を暴露する。
論文 参考訳(メタデータ) (2025-03-09T03:11:32Z) - Alignment, Agency and Autonomy in Frontier AI: A Systems Engineering Perspective [0.0]
アライメント、エージェンシー、自律といった概念は、AIの安全性、ガバナンス、制御の中心となっている。
本稿では、これらの概念の歴史的、哲学的、技術的進化をトレースし、その定義がAI開発、デプロイメント、監視にどのように影響するかを強調する。
論文 参考訳(メタデータ) (2025-02-20T21:37:20Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Reconfiguring Participatory Design to Resist AI Realism [1.0878040851638]
本稿では,参加型デザインがAIリアリズムに疑問を呈し抵抗する役割を担っていることを論じる。
AIリアリズムの3つの側面について検討する:真のエンパワーメントを欠く民主化のファサード、人間の適応性への要求、AIシステムを実現する必要不可欠な人的労働の難しさ。
PDを再構成して価値中心のビジョンへの関与を継続し、AI以外の選択肢を探究し、AIシステムを目に見えるものにすることで、AIリアリズムに抵抗することを提案する。
論文 参考訳(メタデータ) (2024-06-05T13:21:46Z) - Deepfakes, Misinformation, and Disinformation in the Era of Frontier AI, Generative AI, and Large AI Models [7.835719708227145]
ディープフェイクとm/disinformationの拡散は、世界中の情報エコシステムの整合性に対する恐ろしい脅威として現れている。
我々は,大規模モデル(LM-based GenAI)をベースとした生成AIの仕組みを強調した。
我々は、高度な検出アルゴリズム、クロスプラットフォームのコラボレーション、ポリシー駆動のイニシアチブを組み合わせた統合フレームワークを導入する。
論文 参考訳(メタデータ) (2023-11-29T06:47:58Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。