論文の概要: Efficient Explanations from Empirical Explainers
- arxiv url: http://arxiv.org/abs/2103.15429v1
- Date: Mon, 29 Mar 2021 08:54:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 01:28:43.027180
- Title: Efficient Explanations from Empirical Explainers
- Title(参考訳): 経験的説明者からの効率的な説明
- Authors: Robert Schwarzenberg, Nils Feldhus, Sebastian M\"oller
- Abstract要約: 経験的説明者はデータから学び、高価な説明者の帰属マップを予測する。
私たちは、言語ドメインにおける経験的説明者のトレーニングとテストを行い、コストのほんの一部で、彼らの高価な説明者をうまくモデル化することを見つけます。
- 参考スコア(独自算出の注目度): 0.9539495585692009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Amid a discussion about Green AI in which we see explainability neglected, we
explore the possibility to efficiently approximate computationally expensive
explainers. To this end, we propose the task of feature attribution modelling
that we address with Empirical Explainers. Empirical Explainers learn from data
to predict the attribution maps of expensive explainers. We train and test
Empirical Explainers in the language domain and find that they model their
expensive counterparts well, at a fraction of the cost. They could thus
mitigate the computational burden of neural explanations significantly, in
applications that tolerate an approximation error.
- Abstract(参考訳): 説明可能性を無視したグリーンAIに関する議論の中で,計算コストの高い説明器を効率的に近似する可能性を探る。
そこで本稿では,経験的説明者による特徴属性モデリングの課題を提案する。
経験的説明者はデータから学び、高価な説明者の帰属マップを予測する。
言語領域における経験的説明器をトレーニングし、テストし、コストのごく一部で、彼らが高価な説明器をうまくモデル化していることに気付きます。
これにより、近似誤差を許容する応用において、神経説明の計算負荷を著しく軽減することができる。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Consumer-Driven Explanations for Machine Learning Decisions: An
Empirical Study of Robustness [35.520178007455556]
本稿では、TEDと呼ばれる別の消費者主導のアプローチに基づいて、ターゲットラベルとともに、トレーニングデータに説明を提供するよう要求する。
TEDにおけるいくつかの実践的考察について実験を行い,その性能について異なる分類アルゴリズムを用いて検討した。
論文 参考訳(メタデータ) (2020-01-13T18:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。