論文の概要: Will Power Return to the Clouds? From Divine Authority to GenAI Authority
- arxiv url: http://arxiv.org/abs/2512.03076v1
- Date: Thu, 27 Nov 2025 18:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.939609
- Title: Will Power Return to the Clouds? From Divine Authority to GenAI Authority
- Title(参考訳): 電力は雲に戻るのか? : 分権から玄海庁へ
- Authors: Mohammad Saleh Torkestani, Taha Mansouri,
- Abstract要約: ジェネレーティブAIシステムは、ニュースフィード、検索ランキング、クリエイティブコンテンツを数億人のユーザー向けに仲介する。
本稿では,現代におけるBig-Techコンテンツモデレーションを取り入れた,事務知識制御のタッチストーンであるGalileo Affairについて概説する。
- 参考スコア(独自算出の注目度): 0.2864713389096699
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI systems now mediate newsfeeds, search rankings, and creative content for hundreds of millions of users, positioning a handful of private firms as de-facto arbiters of truth. Drawing on a comparative-historical lens, this article juxtaposes the Galileo Affair, a touchstone of clerical knowledge control, with contemporary Big-Tech content moderation. We integrate Foucault's power/knowledge thesis, Weber's authority types (extended to a rational-technical and emerging agentic-technical modality), and Floridi's Dataism to analyze five recurrent dimensions: disciplinary power, authority modality, data pluralism, trust versus reliance, and resistance pathways. Primary sources (Inquisition records; platform transparency reports) and recent empirical studies on AI trust provide the evidentiary base. Findings show strong structural convergences: highly centralized gatekeeping, legitimacy claims couched in transcendent principles, and systematic exclusion of marginal voices. Divergences lie in temporal velocity, global scale, and the widening gap between public reliance and trust in AI systems. Ethical challenges cluster around algorithmic opacity, linguistic inequity, bias feedback loops, and synthetic misinformation. We propose a four-pillar governance blueprint: (1) a mandatory international model-registry with versioned policy logs, (2) representation quotas and regional observatories to de-center English-language hegemony, (3) mass critical-AI literacy initiatives, and (4) public-private support for community-led data trusts. Taken together, these measures aim to narrow the trust-reliance gap and prevent GenAI from hardcoding a twenty-first-century digital orthodoxy.
- Abstract(参考訳): 生成AIシステムは今や、ニュースフィード、検索ランキング、クリエイティビティコンテンツを数億人のユーザー向けに仲介し、少数の民間企業が真実のデファクト・アービターとして位置づけている。
比較史的なレンズをベースとした本論文では,現代におけるBig-Techコンテンツモデレーションを取り入れた,聖職者の知識制御のタッチストーンであるGalileo Affairについて概説する。
我々は、フーコーのパワー/知識論、ウェーバーの権威タイプ(有理技術および新興のエージェント・テクノロジー・モダリティに拡張)、フロリジのアソシズムを統合して、5つの連続する次元(ディシリナリー・パワー、権威のモダリティ、データ多元論、信頼対信頼、抵抗の経路)を分析する。
主要な情報源(調査記録、プラットフォーム透明性レポート)と最近のAI信頼に関する実証研究は明白な基盤を提供する。
発見は強力な構造的収束を示しており、高度に集中した門の維持、正当性主張は超越的な原則に反し、限界の声を体系的に排除している。
違いは、時間的速度、グローバルスケール、そしてAIシステムに対する公的な信頼と信頼のギャップを広げることにある。
倫理的課題は、アルゴリズムの不透明さ、言語的不平等、バイアスフィードバックループ、合成誤情報を中心に集結している。
本研究では,(1)バージョン管理された政策ログを持つ強制的国際的モデル登録,(2)英語のヘゲモニーを脱中心とする表現クォータと地域観測,(3)大規模クリティカルAIリテラシーイニシアチブ,(4)コミュニティ主導のデータ信頼に対する公的支援,の4つを提案する。
これらの措置は、信頼と信頼のギャップを狭め、21世紀のデジタル正統性を固くするのを防ぐことを目的としている。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Generative AI as Digital Media [0.0]
生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
論文 参考訳(メタデータ) (2025-03-09T08:58:17Z) - Measuring Political Preferences in AI Systems: An Integrative Approach [0.0]
この研究は、主要なAIシステムにおける政治的偏見を評価するために、マルチメソッドアプローチを採用する。
その結果、現代のAIシステムでは、一貫した左利きバイアスが示される。
AIシステムにおける組織的な政治的偏見の存在は、視点の多様性の低減、社会的分極の増大、AI技術における公的な不信の可能性などのリスクを引き起こす。
論文 参考訳(メタデータ) (2025-03-04T01:40:28Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。