論文の概要: Responsibility: An Example-based Explainable AI approach via Training
Process Inspection
- arxiv url: http://arxiv.org/abs/2209.03433v1
- Date: Wed, 7 Sep 2022 19:30:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:12:24.545159
- Title: Responsibility: An Example-based Explainable AI approach via Training
Process Inspection
- Title(参考訳): 責任: トレーニングプロセス検査による説明可能なaiアプローチの例
- Authors: Faraz Khadivpour, Arghasree Banerjee, Matthew Guzdial
- Abstract要約: 我々は、特定の決定に対して最も責任あるトレーニング例を特定する新しいXAIアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、という説明として示されます。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 1.4610038284393165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) methods are intended to help human
users better understand the decision making of an AI agent. However, many
modern XAI approaches are unintuitive to end users, particularly those without
prior AI or ML knowledge. In this paper, we present a novel XAI approach we
call Responsibility that identifies the most responsible training example for a
particular decision. This example can then be shown as an explanation: "this is
what I (the AI) learned that led me to do that". We present experimental
results across a number of domains along with the results of an Amazon
Mechanical Turk user study, comparing responsibility and existing XAI methods
on an image classification task. Our results demonstrate that responsibility
can help improve accuracy for both human end users and secondary ML models.
- Abstract(参考訳): 説明可能な人工知能(XAI)メソッドは、AIエージェントの意思決定をよりよく理解するためのものだ。
しかし、現代のxaiアプローチの多くは、特にaiやmlの知識を持たないユーザーにとって直感的ではない。
本稿では,ある決定に対して最も責任のあるトレーニング例を識別する責任と呼ばれる,新たなxaiアプローチを提案する。
この例は、"これが私が(AI)学んだことであり、それが私をそのようにしました"、と説明できる。
画像分類タスクにおける責任と既存のxai手法の比較から,amazon mechanical turkユーザ調査の結果とともに,複数のドメインを対象とした実験結果を示す。
以上の結果から,ヒューマンエンドユーザとセカンダリMLモデルの両方において,責任が精度の向上に役立つことが示された。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - XAI for All: Can Large Language Models Simplify Explainable AI? [0.0699049312989311]
x-[plAIn]"は、カスタムのLarge Language Modelを通じて、XAIをより広く利用できるようにする新しいアプローチである。
我々の目標は、様々なXAI手法の明確で簡潔な要約を生成できるモデルを設計することであった。
使用事例調査の結果から,本モデルは理解し易く,観衆特有の説明を提供するのに有効であることが示された。
論文 参考訳(メタデータ) (2024-01-23T21:47:12Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable Artificial Intelligence Approaches: A Survey [0.22940141855172028]
人工知能ベースの「ブラックボックス」システム/モデルからの決定の説明力の欠如は、ハイステークアプリケーションでAIを採用するための重要な障害です。
相互ケーススタディ/タスクにより、一般的なXAI(Explainable Artificial Intelligence)手法を実証します。
競争優位性を多角的に分析します。
我々はXAIを媒体として、責任や人間中心のAIへの道を推奨する。
論文 参考訳(メタデータ) (2021-01-23T06:15:34Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。