論文の概要: Measure Utility, Gain Trust: Practical Advice for XAI Researcher
- arxiv url: http://arxiv.org/abs/2009.12924v1
- Date: Sun, 27 Sep 2020 18:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:43:50.910450
- Title: Measure Utility, Gain Trust: Practical Advice for XAI Researcher
- Title(参考訳): 実用性の測定と信頼の獲得--xai研究者への実践的アドバイス
- Authors: Brittany Davis, Maria Glenski, William Sealy, Dustin Arendt
- Abstract要約: 研究者は信頼ではなく、機械学習の説明の有用性に重点を置くことを推奨する。
説明が有用である5つの広いユースケースを概説する。
客観的な経験的測定と偽りの仮説に依存する擬似実験について述べる。
- 参考スコア(独自算出の注目度): 2.4756236418706483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research into the explanation of machine learning models, i.e., explainable
AI (XAI), has seen a commensurate exponential growth alongside deep artificial
neural networks throughout the past decade. For historical reasons, explanation
and trust have been intertwined. However, the focus on trust is too narrow, and
has led the research community astray from tried and true empirical methods
that produced more defensible scientific knowledge about people and
explanations. To address this, we contribute a practical path forward for
researchers in the XAI field. We recommend researchers focus on the utility of
machine learning explanations instead of trust. We outline five broad use cases
where explanations are useful and, for each, we describe pseudo-experiments
that rely on objective empirical measurements and falsifiable hypotheses. We
believe that this experimental rigor is necessary to contribute to scientific
knowledge in the field of XAI.
- Abstract(参考訳): 機械学習モデルの説明、すなわち説明可能なai(xai)に関する研究は、この10年間、ディープニューラルネットワークと共に指数関数的に成長している。
歴史的理由から、説明と信頼が絡み合っている。
しかし、信頼への焦点は狭すぎるため、人間や説明に関するより確固たる科学的知識を生み出した、試行錯誤された真の実証的な方法から研究コミュニティを混乱させてきた。
そこで我々は,XAI分野の研究者に対して,実践的な進路を提示する。
研究者は、信頼ではなく機械学習の説明の有用性に焦点を当てることを推奨する。
説明が有用である5つの幅広いユースケースを概説し、それぞれが客観的な経験的測定と誤用可能な仮説に依存する擬似実験について述べる。
我々はこの実験的な厳密さは、XAIの分野における科学的知識に貢献するために必要であると考えている。
関連論文リスト
- Transforming Science with Large Language Models: A Survey on AI-assisted Scientific Discovery, Experimentation, Content Generation, and Evaluation [58.064940977804596]
多くの新しいAIモデルとツールが提案され、世界中の研究者や学者が研究をより効果的かつ効率的に実施できるようにすることを約束している。
これらのツールの欠点と誤用の可能性に関する倫理的懸念は、議論の中で特に顕著な位置を占める。
論文 参考訳(メタデータ) (2025-02-07T18:26:45Z) - AI Readiness in Healthcare through Storytelling XAI [0.5120567378386615]
我々は,マルチタスク蒸留と解釈可能性技術を組み合わせて,聴衆中心の説明可能性を実現する手法を開発した。
我々の手法は、責任あるAIを実現するために、ドメインエキスパートと機械学習エキスパートの両方の信頼を高める。
論文 参考訳(メタデータ) (2024-10-24T13:30:18Z) - Many Heads Are Better Than One: Improved Scientific Idea Generation by A LLM-Based Multi-Agent System [62.832818186789545]
Virtual Scientists (VirSci) は、科学研究に固有のチームワークを模倣するために設計されたマルチエージェントシステムである。
VirSciは研究のアイデアを共同で生成し、評価し、洗練するエージェントのチームを組織している。
このマルチエージェントアプローチは、新しい科学的アイデアを生み出す上で、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-12T07:16:22Z) - People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior: Insights from Cognitive Science for Explainable AI [22.138074429937795]
効果的な人間中心の説明可能な人工知能(XAI)は人間の推論によく似ているとしばしば主張されている。
本稿では, 機械的, 遠隔的, あるいは反現実的を問わず, 人々がどのように説明を行うかを分析するための説明モードの枠組みを提案する。
我々の主な発見は、参加者がテレロジカルな説明を、反ファクト的な説明よりもはるかに良い品質とみなし、テレロジカルな表現が、知覚された品質の最良の予測因子であると認識していることである。
論文 参考訳(メタデータ) (2024-03-11T11:48:50Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Human-centered Explainable AI: A Survey of User Studies for Model Explanations [18.971689499890363]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Scientific intuition inspired by machine learning generated hypotheses [2.294014185517203]
私たちは、機械学習モデル自体が得る洞察と知識に焦点を移します。
決定木では, 化学や物理から, ビッグデータから人間の解釈可能な洞察を抽出するために, 勾配増進法を適用した。
数値を超える能力は、機械学習を使って概念理解の発見を加速する扉を開く。
論文 参考訳(メタデータ) (2020-10-27T12:12:12Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。