論文の概要: ConLUX: Concept-Based Local Unified Explanations
- arxiv url: http://arxiv.org/abs/2410.12439v1
- Date: Wed, 16 Oct 2024 10:34:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:41:41.030644
- Title: ConLUX: Concept-Based Local Unified Explanations
- Title(参考訳): ConLUX: コンセプトベースのローカル統一説明
- Authors: Junhao Liu, Haonan Yu, Xin Zhang,
- Abstract要約: ツールネームは、任意の機械学習モデルに対して概念ベースのローカル説明を提供するための一般的なフレームワークである。
我々は、LIME、Kernel SHAP、Anchor、LOREの4種類の説明手法でツール名をインスタンス化した。
評価の結果,ツールネームはより忠実な説明を提供し,ユーザにとってより理解しやすいものとなった。
- 参考スコア(独自算出の注目度): 14.110188927768736
- License:
- Abstract: With the rapid advancements of various machine learning models, there is a significant demand for model-agnostic explanation techniques, which can explain these models across different architectures. Mainstream model-agnostic explanation techniques generate local explanations based on basic features (e.g., words for text models and (super-)pixels for image models). However, these explanations often do not align with the decision-making processes of the target models and end-users, resulting in explanations that are unfaithful and difficult for users to understand. On the other hand, concept-based techniques provide explanations based on high-level features (e.g., topics for text models and objects for image models), but most are model-specific or require additional pre-defined external concept knowledge. To address this limitation, we propose \toolname, a general framework to provide concept-based local explanations for any machine learning models. Our key insight is that we can automatically extract high-level concepts from large pre-trained models, and uniformly extend existing local model-agnostic techniques to provide unified concept-based explanations. We have instantiated \toolname on four different types of explanation techniques: LIME, Kernel SHAP, Anchor, and LORE, and applied these techniques to text and image models. Our evaluation results demonstrate that 1) compared to the vanilla versions, \toolname offers more faithful explanations and makes them more understandable to users, and 2) by offering multiple forms of explanations, \toolname outperforms state-of-the-art concept-based explanation techniques specifically designed for text and image models, respectively.
- Abstract(参考訳): さまざまな機械学習モデルの急速な進歩により、モデルに依存しない説明手法が要求され、異なるアーキテクチャにわたってこれらのモデルを説明することができる。
主ストリームモデルに依存しない説明手法は、基本的な特徴(例えば、テキストモデルの単語や画像モデルの(スーパー)ピクセル)に基づいて局所的な説明を生成する。
しかし、これらの説明はしばしば対象モデルとエンドユーザの意思決定プロセスと一致しないため、ユーザが理解することが困難である。
一方、概念に基づく手法は、高レベルな特徴(例えば、テキストモデルのためのトピックや画像モデルのためのオブジェクト)に基づいた説明を提供するが、ほとんどがモデル固有のものであるか、事前定義された外部概念知識を必要とする。
この制限に対処するため、任意の機械学習モデルに対して概念に基づく局所的な説明を提供するための一般的なフレームワークである \toolname を提案する。
我々の重要な洞察は、大きな事前訓練されたモデルから高レベルの概念を自動的に抽出し、既存の局所モデルに依存しない手法を統一された概念に基づく説明を提供するように一様に拡張できるということである。
LIME, Kernel SHAP, Anchor, LORE の4種類の説明手法で \toolname をインスタンス化し,これらの手法をテキストおよび画像モデルに適用した。
我々の評価結果は
1 バニラバージョンと比較して、 \toolnameはより忠実な説明を提供し、ユーザにとってより理解しやすいものにします。
2) 複数種類の説明を提供することで, テキストモデルと画像モデルに特化して設計された, 最先端のコンセプトベース説明技術に優れる。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - RTQ: Rethinking Video-language Understanding Based on Image-text Model [55.278942477715084]
ビデオ言語理解は、非常に複雑なセマンティックな詳細を含んでいるため、ユニークな課題を提示する。
本稿では,これらの課題を同時に解決するRTQという新しいフレームワークを提案する。
本モデルは,ビデオ言語による事前学習がなくても,優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-01T04:51:01Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Interpreting Vision and Language Generative Models with Semantic Visual
Priors [3.3772986620114374]
我々は、出力シーケンス全体の意味表現を活用する意味のある説明を生成できるSHAPに基づくフレームワークを開発する。
提案手法は,従来の手法よりも計算コストが低く,意味論的に表現力に富んだ説明を生成する。
論文 参考訳(メタデータ) (2023-04-28T17:10:08Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - OCTET: Object-aware Counterfactual Explanations [29.532969342297086]
対物的説明生成のためのオブジェクト指向フレームワークを提案する。
近年のジェネレーティブ・モデリングの成果に触発された本手法では,オブジェクトレベルの操作を容易にするために,クエリイメージを潜在空間に符号化する。
そこで本研究では,シーンを駆動する反実的説明ベンチマークの一連の実験を行い,本手法が分類を超えて適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-22T16:23:12Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - STEEX: Steering Counterfactual Explanations with Semantics [28.771471624014065]
ディープラーニングモデルは、安全クリティカルなアプリケーションでますます使われています。
低解像度の顔画像のような単純な画像では、視覚的対実的な説明が最近提案されている。
本稿では, 可塑性, スパースな修正を生み出す, 新たな生成的対実的説明フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-17T13:20:29Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。