論文の概要: CAFE: Conflict-Aware Feature-wise Explanations
- arxiv url: http://arxiv.org/abs/2310.20363v1
- Date: Tue, 31 Oct 2023 11:14:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-11-01 15:33:07.904504
- Title: CAFE: Conflict-Aware Feature-wise Explanations
- Title(参考訳): CAFE: 競合を意識した機能的説明
- Authors: Adam Dejl, Hamed Ayoobi, Matthew Williams, Francesca Toni
- Abstract要約: 特徴属性法は、個々の入力特徴がモデル出力に与える影響を決定することによって、ニューラルモデルを説明するために広く用いられている。
本稿では,既存手法の3つの制約に対処する新しい特徴属性法であるCAFE(Conflict-Aware Feature-wise Explanations)を提案する。
- 参考スコア(独自算出の注目度): 12.428277452418621
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Feature attribution methods are widely used to explain neural models by
determining the influence of individual input features on the models' outputs.
We propose a novel feature attribution method, CAFE (Conflict-Aware
Feature-wise Explanations), that addresses three limitations of the existing
methods: their disregard for the impact of conflicting features, their lack of
consideration for the influence of bias terms, and an overly high sensitivity
to local variations in the underpinning activation functions. Unlike other
methods, CAFE provides safeguards against overestimating the effects of neuron
inputs and separately traces positive and negative influences of input features
and biases, resulting in enhanced robustness and increased ability to surface
feature conflicts. We show experimentally that CAFE is better able to identify
conflicting features on synthetic tabular data and exhibits the best overall
fidelity on several real-world tabular datasets, while being highly
computationally efficient.
- Abstract(参考訳): 特徴属性法は、個々の入力特徴がモデル出力に与える影響を決定することによって、ニューラルモデルを説明するために広く用いられている。
そこで,本研究では,既存の手法の3つの制限に対処した特徴帰属法であるcafe (conflict-aware feature-wise descriptions)を提案する。
他の方法とは異なり、CAFEはニューロン入力の影響を過大評価することに対する保護策を提供し、入力特徴とバイアスの正および負の影響を別々に追跡することで、堅牢性を高め、特徴衝突を表面化する能力を高める。
実験により,cafeは合成表データ上で相反する特徴を識別し,実世界の表型データセットにおいて,高い計算効率を保ちながら,全体的な忠実性を示すことができることを示した。
関連論文リスト
- Conflicts in Texts: Data, Implications and Challenges [58.03478157713084]
矛盾は、状況の複雑さ、説明と対処が必要な変更、データアノテーションの難しさ、生成された出力の誤りを反映する可能性がある。
本調査ではこれらの矛盾を,(1)事実的矛盾,主観的偏見,および複数の視点が矛盾を生じさせるWeb上の自然テキスト,(2)注釈者がモデルトレーニングに影響を及ぼす注釈付きデータ,(3)幻覚と知識の衝突が発生するモデルインタラクションの3つの重要な領域に分類する。
我々は、対立する情報をより効果的に推論し、調整できる紛争対応NLPシステムの開発における重要な課題と今後の方向性を強調した。
論文 参考訳(メタデータ) (2025-04-28T04:24:01Z) - Dissecting Representation Misalignment in Contrastive Learning via Influence Function [15.28417468377201]
コントラスト損失に対する拡張影響関数 (ECIF) を導入し, コントラスト損失に対する影響関数について検討した。
ECIFは正と負の両方のサンプルを考慮し、対照的な学習モデルの閉形式近似を提供する。
我々はECIFに基づいて,データ評価,誤修正検出,誤予測トレースバックタスクのための一連のアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-18T15:45:41Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - ECon: On the Detection and Resolution of Evidence Conflicts [56.89209046429291]
大規模言語モデル(LLM)の台頭は意思決定システムにおける情報の質に大きな影響を与えている。
本研究では,実世界の誤情報シナリオをシミュレートするために,多様で検証された証拠衝突を生成する手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T07:41:17Z) - Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Predictive Churn with the Set of Good Models [61.00058053669447]
本稿では,予測的不整合という2つの無関係な概念の関連性について考察する。
予測多重性(英: predictive multiplicity)は、個々のサンプルに対して矛盾する予測を生成するモデルである。
2つ目の概念である予測チャーン(英: predictive churn)は、モデル更新前後の個々の予測の違いを調べるものである。
論文 参考訳(メタデータ) (2024-02-12T16:15:25Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Disentangle Estimation of Causal Effects from Cross-Silo Data [14.684584362172666]
本稿では,モデルパラメータのシームレスなクロスサイロ伝送を容易にするために設計された,革新的なアンタングルアーキテクチャを提案する。
種々の欠落領域におけるバイアスを効果的に緩和するために,グローバルな制約を方程式に導入する。
我々の手法は最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-01-04T09:05:37Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Understanding Robust Overfitting from the Feature Generalization Perspective [61.770805867606796]
逆行訓練(AT)は、逆行摂動を自然データに組み込むことで、堅牢なニューラルネットワークを構築する。
これはロバストオーバーフィッティング(RO)の問題に悩まされ、モデルのロバスト性を著しく損なう。
本稿では,新しい特徴一般化の観点からROを考察する。
論文 参考訳(メタデータ) (2023-10-01T07:57:03Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Decomposing Global Feature Effects Based on Feature Interactions [10.874932625841257]
グローバルエフェクトの一般化付加分解(GADGET)は特徴空間の解釈可能な領域を見つけるための新しいフレームワークである。
フレームワークの数学的基盤を提供し、限界特徴効果を可視化する最も一般的な手法に適用可能であることを示す。
提案手法の理論的特性を,異なる実験環境における様々な特徴効果法に基づいて実験的に評価した。
論文 参考訳(メタデータ) (2023-06-01T10:51:12Z) - Understanding Interpersonal Conflict Types and their Impact on
Perception Classification [7.907976678407914]
我々は、新しいアノテーションスキームを使用し、コンフリクトアスペクトアノテーションとコンフリクトアスペクトアノテーションの新しいデータセットをリリースする。
次に、ある状況において、ある個人の行動が正しいものであると認識するかどうかを予測する分類器を構築します。
我々の発見は、紛争や社会規範を理解する上で重要な意味を持つ。
論文 参考訳(メタデータ) (2022-08-18T10:39:35Z) - Learning Infomax and Domain-Independent Representations for Causal
Effect Inference with Real-World Data [9.601837205635686]
上記の問題を解くためにInfomaxとDomain-Independent Representationsを学習する。
提案手法は,因果関係の推論における最先端性能を実現する。
論文 参考訳(メタデータ) (2022-02-22T13:35:15Z) - Bringing a Ruler Into the Black Box: Uncovering Feature Impact from
Individual Conditional Expectation Plots [0.0]
本稿では,ICEプロットから抽出したモデル非依存,性能非依存の特徴影響指標を提案する。
また,ディストリビューション点の影響を変動させるために,ICE特徴量の影響の分布内変異を導入する。
実世界のデータを用いて,ICE機能の効果をいくつかのタスクで実証する。
論文 参考訳(メタデータ) (2021-09-06T20:26:29Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Demarcating Endogenous and Exogenous Opinion Dynamics: An Experimental
Design Approach [27.975266406080152]
本稿では,実験的な設計手法に基づく教師なし分類手法のスイートを設計する。
平均推定誤差の異なる測度を最小化するイベントのサブセットを選択することを目的としている。
我々の実験は、不衛生事象や衛生事象に対する予測性能の検証から、様々な大きさの最適なサブセットを選択する効果の検証まで多岐にわたる。
論文 参考訳(メタデータ) (2021-02-11T11:38:15Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Influence Functions in Deep Learning Are Fragile [52.31375893260445]
影響関数は、テスト時間予測におけるサンプルの効果を近似する。
影響評価は浅いネットワークでは かなり正確です
ヘッセン正則化は、高品質な影響推定を得るために重要である。
論文 参考訳(メタデータ) (2020-06-25T18:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。