論文の概要: IROF: a low resource evaluation metric for explanation methods
- arxiv url: http://arxiv.org/abs/2003.08747v1
- Date: Mon, 9 Mar 2020 13:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:18:39.248807
- Title: IROF: a low resource evaluation metric for explanation methods
- Title(参考訳): IROF : 説明手法のための低リソース評価指標
- Authors: Laura Rieger, Lars Kai Hansen
- Abstract要約: 医療ヒンジにおける機械学習の採用は、使用済みアルゴリズムの透明性に依存している。
ニューラルネットワークの説明に関する文献が増えているにもかかわらず、これらの説明方法を評価する方法については合意が得られていない。
IROFは,手動による評価を回避し,説明手法の評価を行う新しい手法である。
- 参考スコア(独自算出の注目度): 6.312527106205531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The adoption of machine learning in health care hinges on the transparency of
the used algorithms, necessitating the need for explanation methods. However,
despite a growing literature on explaining neural networks, no consensus has
been reached on how to evaluate those explanation methods. We propose IROF, a
new approach to evaluating explanation methods that circumvents the need for
manual evaluation. Compared to other recent work, our approach requires several
orders of magnitude less computational resources and no human input, making it
accessible to lower resource groups and robust to human bias.
- Abstract(参考訳): 医療における機械学習の採用は、使用済みアルゴリズムの透明性に基づいており、説明方法の必要性を欠いている。
しかし、ニューラルネットワークの説明に関する文献が増えているにもかかわらず、これらの説明方法を評価する方法については合意が得られていない。
IROFは,手動による評価を回避し,説明手法の評価を行う新しい手法である。
他の最近の研究と比較すると、我々の手法は計算資源が桁違いに少なく、人間の入力が不要であり、リソース群が低く、人間のバイアスに頑健である。
関連論文リスト
- Less is More: Discovering Concise Network Explanations [26.126343100127936]
本稿では,人間の理解可能な視覚的説明を生成するための新しいアプローチであるDiscovering Conceptual Network Explanations (DCNE)を紹介する。
本手法は,クラス間の識別に重要な視覚的説明を自動的に見つける。
DCNEは、ニューラルネットワークの決定を人間にアクセスし、解釈できるようにするための一歩である。
論文 参考訳(メタデータ) (2024-05-24T06:10:23Z) - Evaluating Saliency Explanations in NLP by Crowdsourcing [25.763227978763908]
クラウドソーシングによるNLPのサリエンシ評価手法を提案する。
我々は,800名のクラウドワーカーを募集し,提案手法を用いて2つのデータセット上で7つのサリエンシ手法を実証的に評価した。
本研究では,サリエンシ法の性能を解析し,既存の自動評価法と比較し,サリエンシ法を用いた場合のNLPとコンピュータビジョン(CV)フィールドの顕著な差異を明らかにした。
論文 参考訳(メタデータ) (2024-05-17T13:27:45Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Negotiated Reasoning: On Provably Addressing Relative
Over-Generalization [49.5896371203566]
過度に一般化することは認知科学における厄介な問題であり、人々は過去の経験のために過度に慎重になる可能性がある。
マルチエージェント強化学習(MARL)のエージェントも、人々が行うように相対的な過剰一般化(RO)に悩まされ、準最適協力に固執している。
近年, エージェントに対する推論能力の割り当てはアルゴリズム的にも経験的にもROを緩和できることが示されたが, ROの理論的理解は乏しい。
論文 参考訳(メタデータ) (2023-06-08T16:57:12Z) - Efficient Methods for Natural Language Processing: A Survey [76.34572727185896]
本研究は, 効率的なNLPにおける現在の手法と知見を合成し, 関連づけるものである。
我々は,限られた資源下でNLPを実施するためのガイダンスと,より効率的な手法を開発するための有望な研究方向性の両立を目指す。
論文 参考訳(メタデータ) (2022-08-31T20:32:35Z) - HIVE: Evaluating the Human Interpretability of Visual Explanations [20.060507122989645]
コンピュータビジョンにおける多種多様な解釈可能性のためのヒューマン評価フレームワークHIVE(Human Interpretability of Visual Explanations)を提案する。
以上の結果から,(実際に正しいかどうかは別として)人的信頼を保ちつつも,正確な予測と誤予測を区別するには十分でないことが示唆された。
論文 参考訳(メタデータ) (2021-12-06T17:30:47Z) - A general approach to compute the relevance of middle-level input
features [0.0]
ミドルレベルの説明は、いくつかの低レベルの説明の欠陥を軽減するために導入された。
MLモデル応答を尊重する中レベル説明の要素を正しく評価するための一般的なアプローチは、文献では提案されていない。
論文 参考訳(メタデータ) (2020-10-16T21:46:50Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z) - Consumer-Driven Explanations for Machine Learning Decisions: An
Empirical Study of Robustness [35.520178007455556]
本稿では、TEDと呼ばれる別の消費者主導のアプローチに基づいて、ターゲットラベルとともに、トレーニングデータに説明を提供するよう要求する。
TEDにおけるいくつかの実践的考察について実験を行い,その性能について異なる分類アルゴリズムを用いて検討した。
論文 参考訳(メタデータ) (2020-01-13T18:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。