論文の概要: Enabling Ethical AI: A case study in using Ontological Context for Justified Agentic AI Decisions
- arxiv url: http://arxiv.org/abs/2512.04822v1
- Date: Thu, 04 Dec 2025 14:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.205363
- Title: Enabling Ethical AI: A case study in using Ontological Context for Justified Agentic AI Decisions
- Title(参考訳): 倫理的AIの活用--正当性エージェントAI決定のためのオントロジー的文脈を用いたケーススタディ
- Authors: Liam McGee, James Harvey, Lucy Cull, Andreas Vermeulen, Bart-Floris Visscher, Malvika Sharan,
- Abstract要約: 著者らは、このプロセスがどのように制度的な知識を捉え、応答品質と効率を改善し、制度的な記憶を緩和するかを示している。
決定は明確で検査可能な証拠と専門家と非専門家の両方への推論に基礎を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this preprint, we present A collaborative human-AI approach to building an inspectable semantic layer for Agentic AI. AI agents first propose candidate knowledge structures from diverse data sources; domain experts then validate, correct, and extend these structures, with their feedback used to improve subsequent models. Authors show how this process captures tacit institutional knowledge, improves response quality and efficiency, and mitigates institutional amnesia. We argue for a shift from post-hoc explanation to justifiable Agentic AI, where decisions are grounded in explicit, inspectable evidence and reasoning accessible to both experts and non-specialists.
- Abstract(参考訳): 本稿では,エージェントAIのための検査可能なセマンティックレイヤを構築するための,協調的な人間-AIアプローチを提案する。
AIエージェントはまず、さまざまなデータソースから候補となる知識構造を提案する。
著者らは、このプロセスがどのように暗黙の制度的知識を捉え、応答品質と効率を改善し、制度的な記憶を緩和するかを示している。
決定は明確で検査可能な証拠と、専門家と非専門家の両方がアクセス可能な推論に基礎を置いている。
関連論文リスト
- Toward AI Matching Policies in Homeless Services: A Qualitative Study with Policymakers [10.288369812464895]
ロサンゼルスの政策立案者は、AIを住宅資源マッチングプロセスに組み込むという考えにオープンかどうかを検討する。
我々の質的な分析は、様々な複雑な要因に気付いても、政策立案者はAIマッチングツールのアイデアを歓迎することを示している。
論文 参考訳(メタデータ) (2025-08-10T00:33:03Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - The Value of Information in Human-AI Decision-making [20.669176502049066]
情報の価値を特徴付けるための意思決定理論の枠組みに貢献する。
補完的な情報を定義することによって、エージェントがAIによる意思決定で利用可能な情報をよりうまく活用する機会を特定することができる。
本稿では、SHAPの説明に適応し、人間の補足情報を強調する新しい説明手法を提案する。
論文 参考訳(メタデータ) (2025-02-10T04:50:42Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Negotiating the Shared Agency between Humans & AI in the Recommender System [1.4249472316161877]
本研究では,ユーザエージェンシーの強化を目的とした二重制御機構を提案する。
透明性とコントロールのレベルがユーザエクスペリエンスに与える影響を評価した。
論文 参考訳(メタデータ) (2024-03-23T19:23:08Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。