論文の概要: Defining Explainable AI for Requirements Analysis
- arxiv url: http://arxiv.org/abs/2602.19071v1
- Date: Sun, 22 Feb 2026 07:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.47059
- Title: Defining Explainable AI for Requirements Analysis
- Title(参考訳): 要求分析のための説明可能なAIの定義
- Authors: Raymond Sheh, Isaac Monteath,
- Abstract要約: 説明可能な人工知能(XAI)はここ数年で普及している。
AIを信頼するには、意思決定において優れたパフォーマンスを示す必要があります。
異なるアプリケーションには、基盤となるAIシステムに必要な情報に対して異なる要件がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) has become popular in the last few years. The Artificial Intelligence (AI) community in general, and the Machine Learning (ML) community in particular, is coming to the realisation that in many applications, for AI to be trusted, it must not only demonstrate good performance in its decisionmaking, but it also must explain these decisions and convince us that it is making the decisions for the right reasons. However, different applications have different requirements on the information required of the underlying AI system in order to convince us that it is worthy of our trust. How do we define these requirements? In this paper, we present three dimensions for categorising the explanatory requirements of different applications. These are Source, Depth and Scope. We focus on the problem of matching up the explanatory requirements of different applications with the capabilities of underlying ML techniques to provide them. We deliberately avoid including aspects of explanation that are already well-covered by the existing literature and we focus our discussion on ML although the principles apply to AI more broadly.
- Abstract(参考訳): 説明可能な人工知能(XAI)はここ数年で普及している。
人工知能(AI)コミュニティ全般と、特に機械学習(ML)コミュニティは、多くのアプリケーションにおいて、AIが信頼されるためには、意思決定において優れたパフォーマンスを示すだけでなく、これらの決定を説明し、正しい理由のために意思決定を行っていることを私たちに納得させる必要があります。
しかし、異なるアプリケーションは、信頼に値すると納得させるために、基盤となるAIシステムに必要な情報に対して異なる要件を持っています。
これらの要件をどのように定義しますか?
本稿では,異なるアプリケーションの説明要件を分類する3つの次元について述べる。
これらはSource、Depth、Scopeです。
我々は、異なるアプリケーションの説明要件と、それらを提供するための基盤となるML技術の能力とをマッチングする問題に焦点を当てる。
我々は、既存の文献で既によく理解されている説明の側面を含めることを意図的に避け、原則はAIに広く適用されるが、MLに焦点をあてる。
関連論文リスト
- Rigor in AI: Doing Rigorous AI Work Requires a Broader, Responsible AI-Informed Conception of Rigor [83.99510317617694]
我々は、厳格なAI研究と実践が持つべきものに対するより広範な概念が必要とされると論じている。
我々は,AIコミュニティの作業に関する対話に有用な言語とフレームワークを提供することを目標としている。
論文 参考訳(メタデータ) (2025-06-17T15:44:41Z) - Explainable AI the Latest Advancements and New Trends [0.0]
信頼という概念は学際的であり、社会的な基準や原則を満たさなければならない。
我々は、AIの説明可能性と自律システムのメタ推論との強い結びつきについて詳しく述べる。
アプローチの統合は、将来の解釈可能なAIシステムへの道を開く可能性がある。
論文 参考訳(メタデータ) (2025-05-11T15:01:12Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Dataset | Mindset = Explainable AI | Interpretable AI [36.001670039529586]
機械学習(ML)の出力を支える理由を説明するために、与えられたデータセットにさまざまなXAIツールを適用すると、"説明可能な"人工知能(XAI)と"解釈可能なAI(IAI)"が相反する。
我々は、XAIは、IAIのサブセットであると主張する。IAIの概念はデータセットの範囲を超えており、思考の領域を含んでいる。
我々は、これらの概念を明確にし、将来のAI応用と研究における多くの実践者や政策立案者に対して、XAI、IAI、EAI、TAIの基礎を築いたいと考えています。
論文 参考訳(メタデータ) (2024-08-22T14:12:53Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Levels of explainable artificial intelligence for human-aligned
conversational explanations [0.6571063542099524]
人々は毎日自律的な決定に影響を受けており、結果を受け入れるためには意思決定プロセスを理解する必要があります。
本稿は,人間の会話説明システムを構築するために,説明のレベルを定義し,それらをどのように統合するかを説明することを目的とする。
論文 参考訳(メタデータ) (2021-07-07T12:19:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。