論文の概要: Context-aware feature attribution through argumentation
- arxiv url: http://arxiv.org/abs/2310.16157v1
- Date: Tue, 24 Oct 2023 20:02:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 18:21:06.372530
- Title: Context-aware feature attribution through argumentation
- Title(参考訳): 議論による文脈認識特徴帰属
- Authors: Jinfeng Zhong, Elsa Negre
- Abstract要約: 我々はCA-FATA (Context-Aware Feature Attribution Through Argumentation) と呼ばれる新しい特徴属性フレームワークを定義する。
我々のフレームワークは、各特徴を、予測を支援したり、攻撃したり、中和したりできる議論として扱うことによって、議論の力を利用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature attribution is a fundamental task in both machine learning and data
analysis, which involves determining the contribution of individual features or
variables to a model's output. This process helps identify the most important
features for predicting an outcome. The history of feature attribution methods
can be traced back to General Additive Models (GAMs), which extend linear
regression models by incorporating non-linear relationships between dependent
and independent variables. In recent years, gradient-based methods and
surrogate models have been applied to unravel complex Artificial Intelligence
(AI) systems, but these methods have limitations. GAMs tend to achieve lower
accuracy, gradient-based methods can be difficult to interpret, and surrogate
models often suffer from stability and fidelity issues. Furthermore, most
existing methods do not consider users' contexts, which can significantly
influence their preferences. To address these limitations and advance the
current state-of-the-art, we define a novel feature attribution framework
called Context-Aware Feature Attribution Through Argumentation (CA-FATA). Our
framework harnesses the power of argumentation by treating each feature as an
argument that can either support, attack or neutralize a prediction.
Additionally, CA-FATA formulates feature attribution as an argumentation
procedure, and each computation has explicit semantics, which makes it
inherently interpretable. CA-FATA also easily integrates side information, such
as users' contexts, resulting in more accurate predictions.
- Abstract(参考訳): 特徴帰属(feature attribution)は、機械学習とデータ分析の両方において、モデル出力に対する個々の特徴や変数の寄与を決定する基本的なタスクである。
このプロセスは、結果を予測する上で最も重要な特徴を特定するのに役立つ。
特徴属性法の歴史は、従属変数と独立変数の間の非線形関係を組み込んで線形回帰モデルを拡張する一般付加モデル(GAM)に遡ることができる。
近年、勾配に基づく手法やサロゲートモデルが複雑な人工知能(AI)システムに応用されているが、これらの手法には限界がある。
ガンは精度が低い傾向にあり、勾配に基づく手法は解釈が難しく、サロゲートモデルはしばしば安定性と忠実性の問題に苦しむ。
さらに,既存の手法ではユーザのコンテキストを考慮せず,好みに大きな影響を及ぼす可能性がある。
このような制約に対処し、現在の最先端を推し進めるために、我々は、CA-FATA(Context-Aware Feature Attribution Through Argumentation)と呼ばれる新しい特徴属性フレームワークを定義します。
我々のフレームワークは、各フィーチャを、予測をサポートし、攻撃し、または中和できる引数として扱うことによって、議論の力を利用する。
さらに、CA-FATAは議論手順として属性を定式化し、各計算には明示的な意味論があり、本質的に解釈可能である。
CA-FATAは、ユーザのコンテキストなどのサイド情報を容易に統合し、より正確な予測を行う。
関連論文リスト
- DISCO: DISCovering Overfittings as Causal Rules for Text Classification Models [6.369258625916601]
ポストホックの解釈可能性法は、モデルの意思決定プロセスを完全に捉えるのに失敗する。
本稿では,グローバルなルールベースの説明を見つけるための新しい手法であるdisCOを紹介する。
DISCOは対話的な説明をサポートし、人間の検査者がルールベースの出力で突発的な原因を区別できるようにする。
論文 参考訳(メタデータ) (2024-11-07T12:12:44Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - When factorization meets argumentation: towards argumentative explanations [0.0]
因数分解に基づく手法と議論フレームワーク(AF)を組み合わせた新しいモデルを提案する。
我々のフレームワークは、ユーザコンテキストなどのサイド情報をシームレスに組み込んで、より正確な予測を可能にします。
論文 参考訳(メタデータ) (2024-05-13T19:16:28Z) - IGANN Sparse: Bridging Sparsity and Interpretability with Non-linear Insight [4.010646933005848]
IGANN Sparseは、一般化された加法モデルのファミリーから生まれた、新しい機械学習モデルである。
トレーニング中の非線形特徴選択プロセスを通じて、スパシティを促進する。
これにより、予測性能を犠牲にすることなく、モデル空間の改善による解釈可能性を保証する。
論文 参考訳(メタデータ) (2024-03-17T22:44:36Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Path Integrals for the Attribution of Model Uncertainties [0.18899300124593643]
本稿では,特徴ベクトルと反事実ベクトルを連結する分布内曲線に依存する新しいアルゴリズムを提案する。
我々は,様々な解像度で画像データセットをベンチマークし,解釈可能性を大幅に単純化することを示す。
論文 参考訳(メタデータ) (2021-07-19T11:07:34Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Probabilistic Case-based Reasoning for Open-World Knowledge Graph
Completion [59.549664231655726]
ケースベース推論(CBR)システムは,与えられた問題に類似した事例を検索することで,新たな問題を解決する。
本稿では,知識ベース(KB)の推論において,そのようなシステムが実現可能であることを示す。
提案手法は,KB内の類似エンティティからの推論パスを収集することにより,エンティティの属性を予測する。
論文 参考訳(メタデータ) (2020-10-07T17:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。