論文の概要: Shapley Chains: Extending Shapley Values to Classifier Chains
- arxiv url: http://arxiv.org/abs/2303.17243v1
- Date: Thu, 30 Mar 2023 09:19:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 13:46:17.625304
- Title: Shapley Chains: Extending Shapley Values to Classifier Chains
- Title(参考訳): shapley chains: shapleyの値を分類チェインに拡張する
- Authors: C\'elia Wafa Ayad, Thomas Bonnier, Benjamin Bosch and Jesse Read
- Abstract要約: シェープリー値を用いて意思決定に貢献する手法は、局所的な個人的およびグローバルな予測を説明する最も一般的な手法の1つである。
本稿では, 設計プロセスにラベル相互依存性を含めることで, この問題を克服するシャプリーチェインを提案する。
- 参考スコア(独自算出の注目度): 1.1355370218310157
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In spite of increased attention on explainable machine learning models,
explaining multi-output predictions has not yet been extensively addressed.
Methods that use Shapley values to attribute feature contributions to the
decision making are one of the most popular approaches to explain local
individual and global predictions. By considering each output separately in
multi-output tasks, these methods fail to provide complete feature
explanations. We propose Shapley Chains to overcome this issue by including
label interdependencies in the explanation design process. Shapley Chains
assign Shapley values as feature importance scores in multi-output
classification using classifier chains, by separating the direct and indirect
influence of these feature scores. Compared to existing methods, this approach
allows to attribute a more complete feature contribution to the predictions of
multi-output classification tasks. We provide a mechanism to distribute the
hidden contributions of the outputs with respect to a given chaining order of
these outputs. Moreover, we show how our approach can reveal indirect feature
contributions missed by existing approaches. Shapley Chains help to emphasize
the real learning factors in multi-output applications and allows a better
understanding of the flow of information through output interdependencies in
synthetic and real-world datasets.
- Abstract(参考訳): 説明可能な機械学習モデルに注目が集まっているにもかかわらず、マルチアウトプット予測の説明はまだ広く取り組まれていない。
シェープリー値を用いて意思決定に貢献する手法は、局所的な個人的およびグローバルな予測を説明する最も一般的な手法の1つである。
複数出力タスクで各出力を別々に考慮することで、これらのメソッドは完全な機能説明を提供しない。
本稿では, 設計プロセスにラベル相互依存性を含めることで, この問題を克服するシャプリーチェインを提案する。
Shapley Chainsは、これらの特徴スコアの直接的および間接的な影響を分離することにより、分類器チェーンを用いた多出力分類において、Shapley値を特徴重要スコアとして割り当てる。
既存の手法と比較して、このアプローチは、マルチアウトプット分類タスクの予測に、より完全な特徴的貢献を負わせることができる。
これらの出力の所定の連鎖順序に関して、出力の隠された寄与を分配するメカニズムを提供する。
さらに、既存のアプローチで欠落している間接的な機能コントリビューションを明らかにする方法を示す。
shapley chainsは、マルチアウトプットアプリケーションにおける実際の学習要素を強調し、合成および実世界のデータセットの出力相互依存性を通じて情報の流れをより理解するのに役立つ。
関連論文リスト
- Unifying Feature and Cost Aggregation with Transformers for Semantic and Visual Correspondence [51.54175067684008]
本稿では,高密度マッチングタスク用に設計されたTransformerベースの積分機能とコスト集約ネットワークを提案する。
まず, 特徴集約とコスト集約が異なる特徴を示し, 双方の集約プロセスの司法的利用から生じる実質的な利益の可能性を明らかにした。
本フレームワークは意味マッチングのための標準ベンチマークで評価され,また幾何マッチングにも適用された。
論文 参考訳(メタデータ) (2024-03-17T07:02:55Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Don't be fooled: label leakage in explanation methods and the importance
of their quantitative evaluation [22.245931823030418]
クラスに依存したメソッドは、選択したクラスに関する情報を「リーク」し、そのクラスがそれよりも高い確率で現れることを示す。
入力のすべての特徴を考慮し、ラベルの分布をその分布に近づける「分布認識」手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T21:02:58Z) - Multi-View Knowledge Distillation from Crowd Annotations for
Out-of-Domain Generalization [53.24606510691877]
本稿では,既存の手法による分布を集約することで,クラウドアノテーションからソフトラベルを取得する新しい手法を提案する。
これらのアグリゲーション手法は、ドメイン外テストセット上の4つのNLPタスクにおいて、最も一貫したパフォーマンスをもたらすことを実証する。
論文 参考訳(メタデータ) (2022-12-19T12:40:18Z) - Interpretability with full complexity by constraining feature
information [1.52292571922932]
解釈可能性(Interpretability)は、機械学習の課題だ。
我々は、新しい角度から解釈可能性にアプローチする:モデルの複雑さを制限することなく、特徴に関する情報を制約する。
近似モデルのスペクトルから洞察を抽出する枠組みを開発する。
論文 参考訳(メタデータ) (2022-11-30T18:59:01Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Exact Shapley Values for Local and Model-True Explanations of Decision
Tree Ensembles [0.0]
決定木アンサンブルの説明にShapley値を適用することを検討する。
本稿では,無作為林に適応し,決定木を増強できる,Shapley値に基づく特徴属性に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-16T20:16:02Z) - Mechanistic Interpretation of Machine Learning Inference: A Fuzzy
Feature Importance Fusion Approach [0.39146761527401425]
機能の重要性を定量化するべきかについては、合意が得られていない。
現在の最先端のアンサンブル特徴量融合は、異なるアプローチによる結果を融合するためにクリップ技術を使用する。
ここでは、ファジィデータ融合法が、クリプス融合法のいくつかの重要な限界を克服する方法について述べる。
論文 参考訳(メタデータ) (2021-10-22T11:22:21Z) - Shapley Flow: A Graph-based Approach to Interpreting Model Predictions [12.601158020289105]
Shapley Flowは、機械学習モデルを解釈するための新しいアプローチである。
因果グラフ全体を考慮し、ノードをクレジット割り当ての基本単位として扱う代わりに、クレジットをテキストメッセージに割り当てる。
論文 参考訳(メタデータ) (2020-10-27T20:21:00Z) - Removing Bias in Multi-modal Classifiers: Regularization by Maximizing
Functional Entropies [88.0813215220342]
いくつかのモダリティは、他のものよりも分類結果に容易に寄与することができる。
機能的エントロピーと機能的フィッシャー情報とを結合した対数ソボレフの不等式に基づく手法を開発した。
VQA-CPv2 と SocialIQ の2つの挑戦的マルチモーダルデータセットに対して,より均一にモダリティを活用しながら,最先端の結果を得る。
論文 参考訳(メタデータ) (2020-10-21T07:40:33Z) - Self-Attention Attribution: Interpreting Information Interactions Inside
Transformer [89.21584915290319]
本稿では,トランスフォーマー内の情報相互作用を解釈する自己帰属属性法を提案する。
本研究は,BERT に対する非目標攻撃の実装において,その属性を敵対パターンとして用いることができることを示す。
論文 参考訳(メタデータ) (2020-04-23T14:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。