論文の概要: Measure Utility, Gain Trust: Practical Advice for XAI Researcher
- arxiv url: http://arxiv.org/abs/2009.12924v1
- Date: Sun, 27 Sep 2020 18:55:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:43:50.910450
- Title: Measure Utility, Gain Trust: Practical Advice for XAI Researcher
- Title(参考訳): 実用性の測定と信頼の獲得--xai研究者への実践的アドバイス
- Authors: Brittany Davis, Maria Glenski, William Sealy, Dustin Arendt
- Abstract要約: 研究者は信頼ではなく、機械学習の説明の有用性に重点を置くことを推奨する。
説明が有用である5つの広いユースケースを概説する。
客観的な経験的測定と偽りの仮説に依存する擬似実験について述べる。
- 参考スコア(独自算出の注目度): 2.4756236418706483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research into the explanation of machine learning models, i.e., explainable
AI (XAI), has seen a commensurate exponential growth alongside deep artificial
neural networks throughout the past decade. For historical reasons, explanation
and trust have been intertwined. However, the focus on trust is too narrow, and
has led the research community astray from tried and true empirical methods
that produced more defensible scientific knowledge about people and
explanations. To address this, we contribute a practical path forward for
researchers in the XAI field. We recommend researchers focus on the utility of
machine learning explanations instead of trust. We outline five broad use cases
where explanations are useful and, for each, we describe pseudo-experiments
that rely on objective empirical measurements and falsifiable hypotheses. We
believe that this experimental rigor is necessary to contribute to scientific
knowledge in the field of XAI.
- Abstract(参考訳): 機械学習モデルの説明、すなわち説明可能なai(xai)に関する研究は、この10年間、ディープニューラルネットワークと共に指数関数的に成長している。
歴史的理由から、説明と信頼が絡み合っている。
しかし、信頼への焦点は狭すぎるため、人間や説明に関するより確固たる科学的知識を生み出した、試行錯誤された真の実証的な方法から研究コミュニティを混乱させてきた。
そこで我々は,XAI分野の研究者に対して,実践的な進路を提示する。
研究者は、信頼ではなく機械学習の説明の有用性に焦点を当てることを推奨する。
説明が有用である5つの幅広いユースケースを概説し、それぞれが客観的な経験的測定と誤用可能な仮説に依存する擬似実験について述べる。
我々はこの実験的な厳密さは、XAIの分野における科学的知識に貢献するために必要であると考えている。
関連論文リスト
- AI Readiness in Healthcare through Storytelling XAI [0.5120567378386615]
我々は,マルチタスク蒸留と解釈可能性技術を組み合わせて,聴衆中心の説明可能性を実現する手法を開発した。
我々の手法は、責任あるAIを実現するために、ドメインエキスパートと機械学習エキスパートの両方の信頼を高める。
論文 参考訳(メタデータ) (2024-10-24T13:30:18Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Towards Human-centered Explainable AI: A Survey of User Studies for Model Explanations [18.971689499890363]
我々は過去5年間に人間によるXAI評価で97コア論文を特定し分析してきた。
我々の研究は、XAIがレコメンダシステムなど特定のアプリケーション領域で急速に普及していることを示している。
我々は,XAI研究者や実践者を対象としたユーザスタディの設計と実施に関する実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2022-10-20T20:53:00Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Probing Across Time: What Does RoBERTa Know and When? [70.20775905353794]
言語知識は、ドメイン間で高速、安定、そして堅牢に獲得されることを示す。
事実と常識はより遅く、ドメインに敏感です。
クロスタイム探索は、これらのモデルが生み出す複雑で混ざった学習を理解するのに役立ち、必要な学習を迅速に行うためのより効率的なアプローチへと導いてくれると信じています。
論文 参考訳(メタデータ) (2021-04-16T04:26:39Z) - Scientific intuition inspired by machine learning generated hypotheses [2.294014185517203]
私たちは、機械学習モデル自体が得る洞察と知識に焦点を移します。
決定木では, 化学や物理から, ビッグデータから人間の解釈可能な洞察を抽出するために, 勾配増進法を適用した。
数値を超える能力は、機械学習を使って概念理解の発見を加速する扉を開く。
論文 参考訳(メタデータ) (2020-10-27T12:12:12Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。