論文の概要: Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set
- arxiv url: http://arxiv.org/abs/2110.13369v3
- Date: Thu, 28 Dec 2023 21:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 03:31:54.760179
- Title: Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set
- Title(参考訳): カオスにおける部分順序:羅生門セットの特徴属性に関する合意
- Authors: Gabriel Laberge, Yann Pequignot, Alexandre Mathieu, Foutse Khomh,
Mario Marchand
- Abstract要約: ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
- 参考スコア(独自算出の注目度): 50.67431815647126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-hoc global/local feature attribution methods are progressively being
employed to understand the decisions of complex machine learning models. Yet,
because of limited amounts of data, it is possible to obtain a diversity of
models with good empirical performance but that provide very different
explanations for the same prediction, making it hard to derive insight from
them. In this work, instead of aiming at reducing the under-specification of
model explanations, we fully embrace it and extract logical statements about
feature attributions that are consistent across all models with good empirical
performance (i.e. all models in the Rashomon Set). We show that partial orders
of local/global feature importance arise from this methodology enabling more
nuanced interpretations by allowing pairs of features to be incomparable when
there is no consensus on their relative importance. We prove that every
relation among features present in these partial orders also holds in the
rankings provided by existing approaches. Finally, we present three use cases
employing hypothesis spaces with tractable Rashomon Sets (Additive models,
Kernel Ridge, and Random Forests) and show that partial orders allow one to
extract consistent local and global interpretations of models despite their
under-specification.
- Abstract(参考訳): ポストホックなグローバル/ローカルな特徴帰属法は、複雑な機械学習モデルの決定を理解するために徐々に採用されている。
しかし、データ量が限られているため、優れた経験的性能を持つモデルの多様性を得ることができるが、同じ予測に対して非常に異なる説明を提供するため、それらから洞察を導き出すことは困難である。
本研究では、モデル説明の下位仕様化を減少させる代わりに、それを完全に受け入れ、経験的性能(すなわち、ラショモン集合内のすべてのモデル)のすべてのモデルに対して一貫した特徴帰属に関する論理的ステートメントを抽出する。
局所的・グローバル的特徴重要度の部分的順序は、それらの相対的重要性に関する合意がない場合、それらの特徴の対が比較不能になることを許すことにより、より微妙な解釈を可能にするこの手法から生じる。
これらの部分順序に含まれる特徴間のすべての関係が、既存のアプローチによって提供されるランクにも成り立つことを証明している。
最後に, 移動可能なラショモン集合(付加モデル, カーネルリッジ, ランダムフォレスト)を持つ仮説空間を用いた3つの応用例を示し, 局所的および大域的モデル解釈を局所的かつ大域的に抽出する部分的順序付けが可能であることを示した。
関連論文リスト
- Enhancement of Approximation Spaces by the Use of Primals and Neighborhood [0.0]
近隣と原始」からのインスピレーションを引き出す4つの新しい一般化された粗集合モデルを導入する。
我々は、現在のモデルは、粗い集合モデルに関連するほとんどすべての重要な側面を保存できると主張している。
また、我々の日常的な健康に関する問題に対して定義する新たな戦略が、より正確な発見をもたらすことも示している。
論文 参考訳(メタデータ) (2024-10-23T18:49:13Z) - When factorization meets argumentation: towards argumentative explanations [0.0]
因数分解に基づく手法と議論フレームワーク(AF)を組み合わせた新しいモデルを提案する。
我々のフレームワークは、ユーザコンテキストなどのサイド情報をシームレスに組み込んで、より正確な予測を可能にします。
論文 参考訳(メタデータ) (2024-05-13T19:16:28Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Consistent Explanations in the Face of Model Indeterminacy via
Ensembling [12.661530681518899]
この研究は、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供することの課題に対処する。
これらのシナリオで提供される説明の一貫性を高めるためのアンサンブル手法を導入する。
本研究は,説明文の解釈において,モデル不確定性を考慮することの重要性を強調した。
論文 参考訳(メタデータ) (2023-06-09T18:45:43Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Cross-Model Consensus of Explanations and Beyond for Image
Classification Models: An Empirical Study [34.672716006357675]
さまざまな機能セットの中で、いくつかの共通機能は、ほとんどのモデルで使用されるかもしれない。
本稿では、共通特徴を捉えるための説明のモデル間コンセンサスを提案する。
5つのデータセット/タスクで80以上のモデルを使用して、広範な実験を行います。
論文 参考訳(メタデータ) (2021-09-02T04:50:45Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。