論文の概要: Partial order: Finding Consensus among Uncertain Feature Attributions
- arxiv url: http://arxiv.org/abs/2110.13369v1
- Date: Tue, 26 Oct 2021 02:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 15:21:40.598285
- Title: Partial order: Finding Consensus among Uncertain Feature Attributions
- Title(参考訳): 部分順序:不確実な特徴属性の一致を見つける
- Authors: Gabriel Laberge, Yann Pequignot, Foutse Khomh, Mario Marchand,
Alexandre Mathieu
- Abstract要約: 特徴の重要性に関する多様な説明を集約する戦略を開発する。
平均集約によって提供される情報の大部分は、個々のモデルのコンセンサスによって支持されない。
平均アグリゲーションによって提供される情報の大部分は、個々のモデルのコンセンサスによって支えられていないことを示す。
- 参考スコア(独自算出の注目度): 61.99201712193871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-hoc feature importance is progressively being employed to explain
decisions of complex machine learning models. Yet in practice, reruns of the
training algorithm and/or the explainer can result in contradicting statements
of feature importance, henceforth reducing trust in those techniques. A
possible avenue to address this issue is to develop strategies to aggregate
diverse explanations about feature importance. While the arithmetic mean, which
yields a total order, has been advanced, we introduce an alternative: the
consensus among multiple models, which results in partial orders. The two
aggregation strategies are compared using Integrated Gradients and Shapley
values on two regression datasets, and we show that a large portion of the
information provided by the mean aggregation is not supported by the consensus
of each individual model, raising suspicion on the trustworthiness of this
practice.
- Abstract(参考訳): ポストホック機能の重要性は、複雑な機械学習モデルの決定を説明するために徐々に採用されている。
しかし、実際には、トレーニングアルゴリズムと/または説明器の再実行は、機能の重要性の矛盾するステートメントをもたらす可能性がある。
この問題に対処するための可能な手段は、機能の重要性に関するさまざまな説明を集約する戦略を開発することだ。
全順序を持つ算術平均は進歩してきたが、複数のモデル間のコンセンサスという別の方法を導入する。
この2つのアグリゲーション戦略を2つの回帰データセット上で統合的グラディエントとシェープリー値を用いて比較し、平均アグリゲーションが提供する情報の大部分は各モデルのコンセンサスによって支持されず、このプラクティスの信頼性に対する疑念を提起する。
関連論文リスト
- Enhancement of Approximation Spaces by the Use of Primals and Neighborhood [0.0]
近隣と原始」からのインスピレーションを引き出す4つの新しい一般化された粗集合モデルを導入する。
我々は、現在のモデルは、粗い集合モデルに関連するほとんどすべての重要な側面を保存できると主張している。
また、我々の日常的な健康に関する問題に対して定義する新たな戦略が、より正確な発見をもたらすことも示している。
論文 参考訳(メタデータ) (2024-10-23T18:49:13Z) - When factorization meets argumentation: towards argumentative explanations [0.0]
因数分解に基づく手法と議論フレームワーク(AF)を組み合わせた新しいモデルを提案する。
我々のフレームワークは、ユーザコンテキストなどのサイド情報をシームレスに組み込んで、より正確な予測を可能にします。
論文 参考訳(メタデータ) (2024-05-13T19:16:28Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Consistent Explanations in the Face of Model Indeterminacy via
Ensembling [12.661530681518899]
この研究は、モデル不確定性の存在下で予測モデルに対して一貫した説明を提供することの課題に対処する。
これらのシナリオで提供される説明の一貫性を高めるためのアンサンブル手法を導入する。
本研究は,説明文の解釈において,モデル不確定性を考慮することの重要性を強調した。
論文 参考訳(メタデータ) (2023-06-09T18:45:43Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Cross-Model Consensus of Explanations and Beyond for Image
Classification Models: An Empirical Study [34.672716006357675]
さまざまな機能セットの中で、いくつかの共通機能は、ほとんどのモデルで使用されるかもしれない。
本稿では、共通特徴を捉えるための説明のモデル間コンセンサスを提案する。
5つのデータセット/タスクで80以上のモデルを使用して、広範な実験を行います。
論文 参考訳(メタデータ) (2021-09-02T04:50:45Z) - Information-theoretic Evolution of Model Agnostic Global Explanations [10.921146104622972]
本論文では,数値・分類データに基づく分類モデルの挙動をグローバルに説明するためのルールを導出する新しいモデル非依存アプローチを提案する。
当社のアプローチは、主要なデジタルマーケティングスイートに展開されています。
論文 参考訳(メタデータ) (2021-05-14T16:52:16Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。