論文の概要: Enabling Ethical AI: A case study in using Ontological Context for Justified Agentic AI Decisions
- arxiv url: http://arxiv.org/abs/2512.04822v1
- Date: Thu, 04 Dec 2025 14:06:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.205363
- Title: Enabling Ethical AI: A case study in using Ontological Context for Justified Agentic AI Decisions
- Title(参考訳): 倫理的AIの活用--正当性エージェントAI決定のためのオントロジー的文脈を用いたケーススタディ
- Authors: Liam McGee, James Harvey, Lucy Cull, Andreas Vermeulen, Bart-Floris Visscher, Malvika Sharan,
- Abstract要約: 著者らは、このプロセスがどのように制度的な知識を捉え、応答品質と効率を改善し、制度的な記憶を緩和するかを示している。
決定は明確で検査可能な証拠と専門家と非専門家の両方への推論に基礎を置いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this preprint, we present A collaborative human-AI approach to building an inspectable semantic layer for Agentic AI. AI agents first propose candidate knowledge structures from diverse data sources; domain experts then validate, correct, and extend these structures, with their feedback used to improve subsequent models. Authors show how this process captures tacit institutional knowledge, improves response quality and efficiency, and mitigates institutional amnesia. We argue for a shift from post-hoc explanation to justifiable Agentic AI, where decisions are grounded in explicit, inspectable evidence and reasoning accessible to both experts and non-specialists.
- Abstract(参考訳): 本稿では,エージェントAIのための検査可能なセマンティックレイヤを構築するための,協調的な人間-AIアプローチを提案する。
AIエージェントはまず、さまざまなデータソースから候補となる知識構造を提案する。
著者らは、このプロセスがどのように暗黙の制度的知識を捉え、応答品質と効率を改善し、制度的な記憶を緩和するかを示している。
決定は明確で検査可能な証拠と、専門家と非専門家の両方がアクセス可能な推論に基礎を置いている。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Negotiating the Shared Agency between Humans & AI in the Recommender System [1.4249472316161877]
本研究では,ユーザエージェンシーの強化を目的とした二重制御機構を提案する。
透明性とコントロールのレベルがユーザエクスペリエンスに与える影響を評価した。
論文 参考訳(メタデータ) (2024-03-23T19:23:08Z) - In Search of Verifiability: Explanations Rarely Enable Complementary
Performance in AI-Advised Decision Making [25.18203172421461]
説明は、人間の意思決定者がAIの予測の正しさを検証できる範囲でのみ有用である、と我々は主張する。
また、補完性能の目的と適切な依存度を比較し、後者を結果段階と戦略段階の信頼度の概念に分解する。
論文 参考訳(メタデータ) (2023-05-12T18:28:04Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。