論文の概要: How should AI knowledge be governed? Epistemic authority, structural transparency, and the case for open cognitive graphs
- arxiv url: http://arxiv.org/abs/2602.16949v1
- Date: Wed, 18 Feb 2026 23:27:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.514348
- Title: How should AI knowledge be governed? Epistemic authority, structural transparency, and the case for open cognitive graphs
- Title(参考訳): AIの知識はどのように管理されるべきか? 疫学的な権威、構造的透明性、そしてオープン認知グラフの場合
- Authors: Chao Li, Chunyi Zhao, Yuru Wang, Yi Hua,
- Abstract要約: 本稿では,教育AIを公共教育認知基盤として再認識する。
ガバナンス条件へのアクセスに注意を移すことで、提案されたフレームワークは、教育AIと民主的な説明責任と公共の責任を整合させる構造的アプローチを提供する。
- 参考スコア(独自算出の注目度): 4.868812642212221
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Through widespread use in formative assessment and self-directed learning, educational AI systems exercise de facto epistemic authority. Unlike human educators, however, these systems are not embedded in institutional mechanisms of accountability, review, and correction, creating a structural governance challenge that cannot be resolved through application-level regulation or model transparency alone. This paper reconceptualizes educational AI as public educational cognitive infrastructure and argues that its governance must address the epistemic authority such systems exert. We propose the Open Cognitive Graph (OCG) as a technical interface that externalizes pedagogical structure in forms aligned with human educational reasoning. By explicitly representing concepts, prerequisite relations, misconceptions, and scaffolding, OCGs make the cognitive logic governing AI behaviour inspectable and revisable. Building on this foundation, we introduce the trunk-branch governance model, which organizes epistemic authority across layers of consensus and pluralism. A case study of a community-governed educational foundation model demonstrates how distributed expertise can be integrated through institutionalized processes of validation, correction, and propagation. The paper concludes by discussing implications for educational equity, AI policy, and sustainability. By shifting attention from access to governance conditions, the proposed framework offers a structural approach to aligning educational AI with democratic accountability and public responsibility.
- Abstract(参考訳): フォーマティブアセスメントと自己指導型学習に広く使用されることで、教育AIシステムは事実上のてんかんの権威を行使する。
しかし、人間の教育者と異なり、これらのシステムは説明責任、レビュー、修正の制度的なメカニズムに埋め込まれておらず、アプリケーションレベルの規制やモデルの透明性だけでは解決できない構造的なガバナンス課題を生み出している。
本稿では、教育AIを公的な教育認知基盤として再認識し、そのガバナンスは、そのようなシステムがもたらす認識的権威に対処する必要があると論じる。
我々は,人間の教育的推論と整合した形態で教育構造を外部化する技術インターフェースとして,オープン認知グラフ(OCG)を提案する。
概念、前提条件関係、誤解、足場を明確に表現することにより、OCGは認知ロジックがAIの振る舞いを検査し、修正可能にする。
この基盤を基盤として,コンセンサス層と多元主義層にまたがる疫学的権威を組織するトランクブランチガバナンスモデルを導入する。
コミュニティが支配する教育基盤モデルのケーススタディは、制度化された検証、修正、伝播のプロセスを通じて分散専門知識をどのように統合できるかを示す。
この論文は、教育的平等、AI政策、持続可能性への意味を論じることによって締めくくられる。
ガバナンス条件へのアクセスに注意を移すことで、提案されたフレームワークは、教育AIと民主的な説明責任と公共の責任を整合させる構造的アプローチを提供する。
関連論文リスト
- The Social Responsibility Stack: A Control-Theoretic Architecture for Governing Socio-Technical AI [0.0]
本稿では,社会責任スタック(Social Responsibility Stack, SRS)を紹介する。
我々は、SRSが規範的目的を実行可能なエンジニアリングと運用制御にどのように変換するかを示す。
このフレームワークは倫理、制御理論、AIガバナンスを橋渡しし、説明責任、適応性、監査可能な社会技術AIシステムのための実践的な基盤を提供する。
論文 参考訳(メタデータ) (2025-12-18T18:42:16Z) - Toward Effective AI Governance: A Review of Principles [2.5411385112104448]
本研究の目的は、AIガバナンスに関する二次文献において、どのフレームワーク、原則、メカニズム、ステークホルダーの役割が強調されているかを特定することである。
最も引用されているフレームワークは、EU AI ActとNIST RMFである。
論文 参考訳(メタデータ) (2025-05-29T13:07:45Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Open Problems in Technical AI Governance [102.19067750759471]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。