論文の概要: Architecting Trust in Artificial Epistemic Agents
- arxiv url: http://arxiv.org/abs/2603.02960v1
- Date: Tue, 03 Mar 2026 13:12:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.807558
- Title: Architecting Trust in Artificial Epistemic Agents
- Title(参考訳): 人工てんかん薬の建築信頼
- Authors: Nahema Marchal, Stephanie Chan, Matija Franklin, Manon Revel, Geoff Keeling, Roberta Fischli, Bilva Chandra, Iason Gabriel,
- Abstract要約: 我々は、知識創造、キュレーション、合成の実践に対するAIエージェントの潜在的影響は、AIの評価とガバナンスのシフトを必要とすると主張している。
本稿では,情緒的AIエージェントの信頼性の構築と育成を目的としたフレームワークを提案する。
この規範的なロードマップは、将来のAIシステムが堅牢で包括的な知識エコシステムにおいて信頼できるパートナーとして機能することを保証するための道筋を提供する。
- 参考スコア(独自算出の注目度): 6.054175970982164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models increasingly function as epistemic agents -- entities that can 1) autonomously pursue epistemic goals and 2) actively shape our shared knowledge environment. They curate the information we receive, often supplanting traditional search-based methods, and are frequently used to generate both personal and deeply specialized advice. How they perform these functions, including whether they are reliable and properly calibrated to both individual and collective epistemic norms, is therefore highly consequential for the choices we make. We argue that the potential impact of epistemic AI agents on practices of knowledge creation, curation and synthesis, particularly in the context of complex multi-agent interactions, creates new informational interdependencies that necessitate a fundamental shift in evaluation and governance of AI. While a well-calibrated ecosystem could augment human judgment and collective decision-making, poorly aligned agents risk causing cognitive deskilling and epistemic drift, making the calibration of these models to human norms a high-stakes necessity. To ensure a beneficial human-AI knowledge ecosystem, we propose a framework centered on building and cultivating the trustworthiness of epistemic AI agents; aligning AI these agents with human epistemic goals; and reinforcing the surrounding socio-epistemic infrastructure. In this context, trustworthy AI agents must demonstrate epistemic competence, robust falsifiability, and epistemically virtuous behaviors, supported by technical provenance systems and "knowledge sanctuaries" designed to protect human resilience. This normative roadmap provides a path toward ensuring that future AI systems act as reliable partners in a robust and inclusive knowledge ecosystem.
- Abstract(参考訳): 大規模な言語モデルは、次第にてんかん治療薬として機能し始めます。
1)自己的にてんかんの目標を追求し
2)共有知識環境を積極的に形成する。
それらは、私たちが受け取った情報をキュレートし、伝統的な検索方式に取って代わり、個人的および深く専門的なアドバイスを生成するために頻繁に使用される。
これらの機能がどのように機能するかは、それらが個人的および集団的てんかんの規範の両方に信頼性があり適切に調整されているかどうかを含め、我々の選択に非常に適している。
我々は、認識型AIエージェントが知識創造、キュレーション、合成の実践、特に複雑なマルチエージェントインタラクションの文脈における潜在的影響は、AIの評価とガバナンスの根本的なシフトを必要とする新しい情報相互依存を生み出します。
十分に校正された生態系は、人間の判断と集団的な意思決定を増強する可能性があるが、不整合性のエージェントは認知のデマシリングやてんかんの漂流を引き起こすリスクを冒し、これらのモデルの人間の規範への校正は、高い必要条件である。
本稿では,AIエージェントの信頼性構築と育成,AIエージェントと人間の認識目標の整合化,周囲の社会認識基盤の強化を目的としたフレームワークを提案する。
この文脈では、信頼できるAIエージェントは、人間のレジリエンスを保護するために設計された技術的証明システムと「知識の聖域」によって支えられた、疫学的な能力、堅牢なファルシフィアビリティ、およびエピステマティックな振舞いを示さなければならない。
この規範的なロードマップは、将来のAIシステムが堅牢で包括的な知識エコシステムにおいて信頼できるパートナーとして機能することを保証するための道筋を提供する。
関連論文リスト
- A Comprehensive Survey of Self-Evolving AI Agents: A New Paradigm Bridging Foundation Models and Lifelong Agentic Systems [53.37728204835912]
既存のAIシステムは、デプロイ後も静的な手作業による構成に依存している。
近年,インタラクションデータと環境フィードバックに基づいてエージェントシステムを自動拡張するエージェント進化手法が研究されている。
この調査は、自己進化型AIエージェントの体系的な理解を研究者や実践者に提供することを目的としている。
論文 参考訳(メタデータ) (2025-08-10T16:07:32Z) - Classifying Epistemic Relationships in Human-AI Interaction: An Exploratory Approach [0.6906005491572401]
本研究は,研究と教育の文脈において,ユーザがAIをどのように評価し,信頼し,協力するかを調査する。
専門分野にまたがる31人の学者へのインタビューをもとに、5つのパートのコードブックを作成し、5つの関係タイプを特定した。
論文 参考訳(メタデータ) (2025-08-02T23:41:28Z) - The Ultimate Test of Superintelligent AI Agents: Can an AI Balance Care and Control in Asymmetric Relationships? [11.983461426678522]
シェパードテストは、超知能人工エージェントの道徳的および関係的な次元を評価するための新しい概念テストである。
私たちは、AIが知的エージェントを操作、育む、そして機器的に使用しない能力を示すときに、重要な、潜在的に危険な、知能のしきい値を越えることを主張する。
これには、自己利益と従属エージェントの幸福の間の道徳的なトレードオフを評価する能力が含まれる。
論文 参考訳(メタデータ) (2025-06-02T15:53:56Z) - Toward a Theory of Agents as Tool-Use Decision-Makers [89.26889709510242]
真の自律性は、エージェントが、彼らが知っていること、必要なこと、そしてその知識を効率的に獲得する方法を統治する、一貫性のある疫学の枠組みに根ざす必要がある、と我々は主張する。
本研究では,内的推論と外的行動を等価な疫学ツールとして扱う統一理論を提案し,エージェントが内観と相互作用を体系的に調整することを可能にする。
この視点は、エージェントの設計を単なるアクションエグゼクタから知識駆動インテリジェンスシステムにシフトさせ、適応的で効率的でゴール指向の行動が可能な基礎エージェントを構築するための原則化された道筋を提供する。
論文 参考訳(メタデータ) (2025-06-01T07:52:16Z) - Advances and Challenges in Foundation Agents: From Brain-Inspired Intelligence to Evolutionary, Collaborative, and Safe Systems [132.77459963706437]
この本は、モジュール化された脳に触発されたアーキテクチャの中で、インテリジェントなエージェントをフレーミングする、包括的な概要を提供する。
自己向上と適応的な進化のメカニズムを探求し、エージェントが自律的に能力を洗練する方法を探求する。
また、エージェントの相互作用、協力、社会構造から生じる集合的知性についても調べる。
論文 参考訳(メタデータ) (2025-03-31T18:00:29Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Agentic AI Needs a Systems Theory [46.36636351388794]
AI開発は現在、個々のモデル機能に過度に重点を置いている、と私たちは主張する。
エージェント認知の強化,創発的因果推論能力,メタ認知認知のメカニズムについて概説する。
システムレベルの視点は、より理解し、意図的に形作り、エージェントAIシステムに不可欠である、と私たちは強調する。
論文 参考訳(メタデータ) (2025-02-28T22:51:32Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Approximating Human Models During Argumentation-based Dialogues [4.178382980763478]
説明可能なAI計画(XAIP)の主な課題は、モデルの和解である。
本稿では,AIエージェントによる確率的人間モデル学習と更新を可能にする新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T23:22:18Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。