論文の概要: Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction
- arxiv url: http://arxiv.org/abs/2007.12248v1
- Date: Thu, 23 Jul 2020 20:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:37:41.496216
- Title: Are Visual Explanations Useful? A Case Study in Model-in-the-Loop
Prediction
- Title(参考訳): ビジュアル説明は役に立つか?
model-in-the-loop 予測のケーススタディ
- Authors: Eric Chu, Deb Roy, Jacob Andreas
- Abstract要約: 画像に基づく年齢予測課題における視覚的満足度に基づく説明について検討する。
モデル予測の提示により,人間の精度が向上することが判明した。
しかし、様々な種類の説明は、人間の正確さやモデルの信頼を著しく変えることができない。
- 参考スコア(独自算出の注目度): 49.254162397086006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a randomized controlled trial for a model-in-the-loop regression
task, with the goal of measuring the extent to which (1) good explanations of
model predictions increase human accuracy, and (2) faulty explanations decrease
human trust in the model. We study explanations based on visual saliency in an
image-based age prediction task for which humans and learned models are
individually capable but not highly proficient and frequently disagree. Our
experimental design separates model quality from explanation quality, and makes
it possible to compare treatments involving a variety of explanations of
varying levels of quality. We find that presenting model predictions improves
human accuracy. However, visual explanations of various kinds fail to
significantly alter human accuracy or trust in the model - regardless of
whether explanations characterize an accurate model, an inaccurate one, or are
generated randomly and independently of the input image. These findings suggest
the need for greater evaluation of explanations in downstream decision making
tasks, better design-based tools for presenting explanations to users, and
better approaches for generating explanations.
- Abstract(参考訳): モデル・イン・ザ・ループ回帰タスクにおいて,(1)モデル予測の良好な説明が人間の精度を向上させる程度を計測し,(2)モデルに対する人間の信頼を低下させるようなランダム化制御試験を提案する。
本研究では,人間と学習モデルが個々に有能であるが,熟練度が高く,かつ不一致が多い画像ベース年齢予測タスクにおける視覚的なサリエンシーに基づく説明について検討する。
実験設計では, モデル品質と説明品質を分離し, 様々な品質レベルの説明を含む治療を比較することができる。
モデル予測の提示は人間の精度を向上させる。
しかし、様々な種類の視覚的説明は、人間の正確さやモデルの信頼を著しく変えることができず、説明が正確なモデル、不正確なもの、あるいは入力画像からランダムに、無関係に生成されるかどうかに関わらずである。
これらの知見は,下流意思決定タスクにおける説明のさらなる評価,ユーザへの説明提示のための設計ベースツールの改善,説明生成のためのより良いアプローチの必要性を示唆する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Training Deep Models to be Explained with Fewer Examples [40.58343220792933]
我々は、サンプル数を減らすために、スパース正規化器と同時に予測モデルと説明モデルを訓練する。
いくつかのデータセットを用いた実験により,提案手法は予測性能を維持しながら忠実性を向上させることを示した。
論文 参考訳(メタデータ) (2021-12-07T05:39:21Z) - On the Lack of Robust Interpretability of Neural Text Classifiers [14.685352584216757]
本研究では,事前学習したトランスフォーマーエンコーダをベースとしたニューラルテキスト分類器の解釈の堅牢性を評価する。
どちらのテストも、期待された行動から驚くほど逸脱しており、実践者が解釈から引き出す可能性のある洞察の程度について疑問を呈している。
論文 参考訳(メタデータ) (2021-06-08T18:31:02Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - To what extent do human explanations of model behavior align with actual
model behavior? [91.67905128825402]
モデル推論決定の人間による説明が、モデルが実際にこれらの決定を下す方法と一致する程度を調べた。
自然言語の人間の説明が入力語に対するモデル感度とどのように一致するかを定量化する2つのアライメント指標を定義した。
モデルと人間の説明との整合は、NLI上のモデルの精度によって予測されないことが判明した。
論文 参考訳(メタデータ) (2020-12-24T17:40:06Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。