論文の概要: Ensemble Interpretation: A Unified Method for Interpretable Machine
Learning
- arxiv url: http://arxiv.org/abs/2312.06255v1
- Date: Mon, 11 Dec 2023 09:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 16:20:38.277630
- Title: Ensemble Interpretation: A Unified Method for Interpretable Machine
Learning
- Title(参考訳): Ensemble Interpretation: 解釈可能な機械学習のための統一手法
- Authors: Chao Min, Guoyong Liao, Guoquan Wen, Yingjun Li, Xing Guo
- Abstract要約: 本稿では,新しい解釈可能な手法であるアンサンブル解釈について述べる。
実験の結果、アンサンブルの解釈はより安定しており、人間の経験や認知と一致していることがわかった。
アプリケーションとして,特徴選択にアンサンブル解釈を用い,それに対応する学習モデルの一般化性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 1.276129213205911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the issues of stability and fidelity in interpretable learning, a
novel interpretable methodology, ensemble interpretation, is presented in this
paper which integrates multi-perspective explanation of various interpretation
methods. On one hand, we define a unified paradigm to describe the common
mechanism of different interpretation methods, and then integrate the multiple
interpretation results to achieve more stable explanation. On the other hand, a
supervised evaluation method based on prior knowledge is proposed to evaluate
the explaining performance of an interpretation method. The experiment results
show that the ensemble interpretation is more stable and more consistent with
human experience and cognition. As an application, we use the ensemble
interpretation for feature selection, and then the generalization performance
of the corresponding learning model is significantly improved.
- Abstract(参考訳): 解釈可能な学習における安定性と忠実さの問題に対処するため,様々な解釈方法の多視点的説明を統合する新しい解釈可能な手法であるアンサンブル解釈を提案する。
一方,異なる解釈方法の共通機構を記述するための統一パラダイムを定義し,より安定した説明を実現するために複数の解釈結果を統合する。
一方,先行知識に基づく教師付き評価手法を提案し,解釈手法の説明性能を評価する。
実験の結果、アンサンブル解釈は人間の経験や認知とより安定し、より一貫性があることが示された。
アプリケーションとして,特徴選択にアンサンブル解釈を用い,それに対応する学習モデルの一般化性能を大幅に向上させる。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - Unsupervised Interpretable Basis Extraction for Concept-Based Visual
Explanations [53.973055975918655]
提案手法を用いて抽出したベースに変換すると,中間層表現がより解釈可能であることを示す。
提案手法は,提案手法を教師付きアプローチから抽出したベースと,教師付き手法から抽出したベースを比較した結果,教師なし手法は教師付き手法の限界を構成する強みを有し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2023-03-19T00:37:19Z) - On Sample Based Explanation Methods for NLP:Efficiency, Faithfulness,
and Semantic Evaluation [23.72825603188359]
我々は、任意のテキストシーケンスを説明単位として許容することにより、説明の解釈可能性を向上させることができる。
本研究では,人間による説明の判断に適合する意味に基づく評価指標を提案する。
論文 参考訳(メタデータ) (2021-06-09T00:49:56Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Are Interpretations Fairly Evaluated? A Definition Driven Pipeline for
Post-Hoc Interpretability [54.85658598523915]
我々は,解釈の忠実性を評価する前に,解釈を明確に定義することを提案する。
解釈手法は,ある評価基準の下で異なる性能を示すが,その差は解釈の品質や忠実さから生じるものではない。
論文 参考訳(メタデータ) (2020-09-16T06:38:03Z) - On quantitative aspects of model interpretability [0.0]
これらの次元に沿った手法は、2つの概念的部分、すなわち抽出器と実際の説明可能性法に含めることができると論じる。
異なるベンチマークタスクのメトリクスを実験的に検証し、そのタスクに最も適したメソッドの選択において、実践者の指導にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-07-15T10:05:05Z) - Instance-Based Learning of Span Representations: A Case Study through
Named Entity Recognition [48.06319154279427]
本研究では,スパン間の類似性を学習するインスタンスベースの学習手法を提案する。
本手法では,性能を犠牲にすることなく高い解釈性を持つモデルを構築することができる。
論文 参考訳(メタデータ) (2020-04-29T23:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。