論文の概要: A Scoresheet for Explainable AI
- arxiv url: http://arxiv.org/abs/2502.09861v1
- Date: Fri, 14 Feb 2025 02:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:48:03.327868
- Title: A Scoresheet for Explainable AI
- Title(参考訳): 説明可能なAIのためのスコアシート
- Authors: Michael Winikoff, John Thangarajah, Sebastian Rodriguez,
- Abstract要約: 本稿では、説明可能性要件の特定や、特定のアプリケーションに提供される説明可能性側面の評価に使用できるスコアシートを開発する。
スコアシートは、様々な利害関係者の要求を考慮して開発され、マルチエージェントシステムや他のAI技術にも適用できる。
- 参考スコア(独自算出の注目度): 9.503773054285558
- License:
- Abstract: Explainability is important for the transparency of autonomous and intelligent systems and for helping to support the development of appropriate levels of trust. There has been considerable work on developing approaches for explaining systems and there are standards that specify requirements for transparency. However, there is a gap: the standards are too high-level and do not adequately specify requirements for explainability. This paper develops a scoresheet that can be used to specify explainability requirements or to assess the explainability aspects provided for particular applications. The scoresheet is developed by considering the requirements of a range of stakeholders and is applicable to Multiagent Systems as well as other AI technologies. We also provide guidance for how to use the scoresheet and illustrate its generality and usefulness by applying it to a range of applications.
- Abstract(参考訳): 説明責任は、自律的でインテリジェントなシステムの透明性と、適切なレベルの信頼の開発を支援するために重要です。
システムを説明するためのアプローチの開発には相当な取り組みがあり、透明性の要件を規定する標準がある。
しかし、ギャップがある:標準は高レベルであり、説明可能性の要件を適切に規定していない。
本稿では、説明可能性要件の特定や、特定のアプリケーションに提供される説明可能性側面の評価に使用できるスコアシートを開発する。
スコアシートは、様々な利害関係者の要求を考慮して開発され、マルチエージェントシステムや他のAI技術にも適用できる。
また,様々なアプリケーションに適用することで,スコアシートの使い方や,その汎用性や有用性を示すガイダンスも提供する。
関連論文リスト
- An Adaptive Framework for Generating Systematic Explanatory Answer in Online Q&A Platforms [62.878616839799776]
質問応答(QA)性能を向上させるために設計された,革新的なフレームワークであるSynthRAGを提案する。
SynthRAGは動的コンテンツの構造化に適応的なアウトラインを用いることで従来のモデルを改善する。
Zhihuプラットフォーム上のオンラインデプロイメントでは、SynthRAGの回答が注目すべきユーザエンゲージメントを実現していることが明らかになった。
論文 参考訳(メタデータ) (2024-10-23T09:14:57Z) - Specification Overfitting in Artificial Intelligence [1.8292622558116727]
機械学習(ML)と人工知能(AI)のアプローチは、その固有のバイアスと、制御の欠如、説明責任、透明性のためにしばしば批判される。
公平性や堅牢性といった高レベルの要件は、具体的な仕様メトリクスに形式化する必要があります。
本稿では,高レベルの要求とタスク性能の低下に対して,特定の指標に過度に注目するシナリオである仕様オーバーフィッティングを定義する。
論文 参考訳(メタデータ) (2024-03-13T11:20:34Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - How to Evaluate Explainability? -- A Case for Three Criteria [0.0]
我々は,システムが提供するべき情報に関する3つの品質基準について,多分野のモチベーションを提供する。
本研究の目的は, 適切な評価方法が考案されるなど, これらの基準に関する議論を加速させることである。
論文 参考訳(メタデータ) (2022-09-01T11:22:50Z) - Interpretable Reinforcement Learning with Multilevel Subgoal Discovery [77.34726150561087]
離散環境のための新しい強化学習モデルを提案する。
モデルでは、エージェントは確率的ルールの形で環境に関する情報を学習する。
学習には報酬関数は不要であり、エージェントは達成するための第一の目標のみを与える必要がある。
論文 参考訳(メタデータ) (2022-02-15T14:04:44Z) - A New Score for Adaptive Tests in Bayesian and Credal Networks [64.80185026979883]
テストは、そのシークエンスと質問数とが、テイカーの推定スキルに基づいて動的に調整されるときに適応する。
後部確率のモードに基づいて、別のスコアの族を提示するので、説明し易い。
論文 参考訳(メタデータ) (2021-05-25T20:35:42Z) - Multisource AI Scorecard Table for System Evaluation [3.74397577716445]
本稿では、AI/機械学習(ML)システムの開発者およびユーザに対して標準チェックリストを提供するマルチソースAIスコアカードテーブル(MAST)について述べる。
本稿では,インテリジェンス・コミュニティ・ディレクティブ(ICD)203で概説されている分析的トレードクラフト標準が,AIシステムの性能を評価するためのフレームワークを提供する方法について考察する。
論文 参考訳(メタデータ) (2021-02-08T03:37:40Z) - Reasoning over Vision and Language: Exploring the Benefits of
Supplemental Knowledge [59.87823082513752]
本稿では,汎用知識基盤(KB)から視覚言語変換器への知識の注入について検討する。
我々は複数のタスクやベンチマークに対する様々なkbの関連性を実証的に研究する。
この技術はモデルに依存しず、最小限の計算オーバーヘッドで任意の視覚言語変換器の適用可能性を拡張することができる。
論文 参考訳(メタデータ) (2021-01-15T08:37:55Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。