論文の概要: GLEAMS: Bridging the Gap Between Local and Global Explanations
- arxiv url: http://arxiv.org/abs/2408.05060v1
- Date: Fri, 9 Aug 2024 13:30:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 15:37:31.515889
- Title: GLEAMS: Bridging the Gap Between Local and Global Explanations
- Title(参考訳): GLEAMS: ローカルな説明とグローバルな説明のギャップを埋める
- Authors: Giorgio Visani, Vincenzo Stanzione, Damien Garreau,
- Abstract要約: 本稿では,入力空間を分割し,各サブリージョン内で解釈可能なモデルを学習する新しい手法であるGLEAMSを提案する。
我々は、GLEAMSが合成データと実世界のデータの両方で有効であることを示し、その望ましい特性と人間の理解可能な洞察を強調した。
- 参考スコア(独自算出の注目度): 6.329021279685856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The explainability of machine learning algorithms is crucial, and numerous methods have emerged recently. Local, post-hoc methods assign an attribution score to each feature, indicating its importance for the prediction. However, these methods require recalculating explanations for each example. On the other side, while there exist global approaches they often produce explanations that are either overly simplistic and unreliable or excessively complex. To bridge this gap, we propose GLEAMS, a novel method that partitions the input space and learns an interpretable model within each sub-region, thereby providing both faithful local and global surrogates. We demonstrate GLEAMS' effectiveness on both synthetic and real-world data, highlighting its desirable properties and human-understandable insights.
- Abstract(参考訳): 機械学習アルゴリズムの説明可能性は非常に重要であり、近年多くの手法が登場している。
局所的なポストホックメソッドは、各特徴に属性スコアを割り当て、その予測の重要性を示す。
しかし、これらの手法はそれぞれの例について再計算する必要がある。
一方、グローバルなアプローチが存在する一方で、過度に単純化され、信頼できないか、過度に複雑である説明をしばしば生み出す。
このギャップを埋めるために,入力空間を分割し,各サブリージョン内で解釈可能なモデルを学習する新しい手法であるGLEAMSを提案する。
我々は、GLEAMSが合成データと実世界のデータの両方で有効であることを示し、その望ましい特性と人間の理解可能な洞察を強調した。
関連論文リスト
- Enhancing Model Interpretability with Local Attribution over Global Exploration [6.3144983055172235]
現在の帰属アルゴリズムはサンプル空間を探索することで各パラメータの重要性を評価する。
探索プロセス中に多数の中間状態が導入され、それはモデルのout-of-Distribution(OOD)空間に到達する可能性がある。
これらの特性を利用する局所属性(LA)アルゴリズムを提案する。
提案手法は,最先端の属性手法と比較して平均38.21%の属性効率向上を実現している。
論文 参考訳(メタデータ) (2024-08-14T17:53:08Z) - Local vs. Global Interpretability: A Computational Complexity Perspective [0.9558392439655016]
計算複雑性理論を用いて、MLモデルの局所的および大域的視点を評価する。
これらのモデルの局所的およびグローバル的解釈可能性に関する知見を提供する。
我々は,計算複雑性レンズによる説明可能性の検証が,MLモデル固有の解釈可能性をより厳密に把握する上で有効であることを示す。
論文 参考訳(メタデータ) (2024-06-05T06:23:49Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations [10.276136171459731]
Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
論文 参考訳(メタデータ) (2023-05-26T15:26:59Z) - Coalescing Global and Local Information for Procedural Text
Understanding [70.10291759879887]
完全な手続き的理解ソリューションは、入力のローカル・グローバル・ビューとアウトプットのグローバル・ビューの3つの中核的な側面を組み合わせるべきである。
本稿では,エンティティと時間表現を構築する新しいモデルであるCoalescing Global and Local InformationCGを提案する。
一般的な手続き的テキスト理解データセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2022-08-26T19:16:32Z) - Global Counterfactual Explanations: Investigations, Implementations and
Improvements [12.343333815270402]
Actionable Recourse Summaries (AReS)は、Recourseの世界で唯一知られている対実的な説明フレームワークである。
本稿では,Recourse における唯一の国際対実的説明フレームワークである AReS の実装と改善に焦点をあてる。
論文 参考訳(メタデータ) (2022-04-14T12:21:23Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Best of both worlds: local and global explanations with
human-understandable concepts [10.155485106226754]
解釈可能性のテクニックは、モデルの決定の背後にある理論的根拠を提供することを目的としている。
提案手法は, 地上の真理と比較して, TCAVのグローバルな説明を改善するとともに, 有用な知見を提供する。
論文 参考訳(メタデータ) (2021-06-16T09:05:25Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。