論文の概要: Influence-Driven Explanations for Bayesian Network Classifiers
- arxiv url: http://arxiv.org/abs/2012.05773v3
- Date: Wed, 10 Mar 2021 17:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 06:27:13.939761
- Title: Influence-Driven Explanations for Bayesian Network Classifiers
- Title(参考訳): ベイズネットワーク分類器に対する影響駆動型説明
- Authors: Antonio Rago, Emanuele Albini, Pietro Baroni and Francesca Toni
- Abstract要約: 離散ネットワークベイズ分類器(BC)の解説に焦点をあてる。
本稿では,入力変数や出力変数だけでなく,中間変数を記述に含むbcsに対する影響駆動説明(idxs)を提案する。
- 参考スコア(独自算出の注目度): 16.708069984516964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most pressing issues in AI in recent years has been the need to
address the lack of explainability of many of its models. We focus on
explanations for discrete Bayesian network classifiers (BCs), targeting greater
transparency of their inner workings by including intermediate variables in
explanations, rather than just the input and output variables as is standard
practice. The proposed influence-driven explanations (IDXs) for BCs are
systematically generated using the causal relationships between variables
within the BC, called influences, which are then categorised by logical
requirements, called relation properties, according to their behaviour. These
relation properties both provide guarantees beyond heuristic explanation
methods and allow the information underpinning an explanation to be tailored to
a particular context's and user's requirements, e.g., IDXs may be dialectical
or counterfactual. We demonstrate IDXs' capability to explain various forms of
BCs, e.g., naive or multi-label, binary or categorical, and also integrate
recent approaches to explanations for BCs from the literature. We evaluate IDXs
with theoretical and empirical analyses, demonstrating their considerable
advantages when compared with existing explanation methods.
- Abstract(参考訳): 近年のaiにおける最も差し迫った問題の1つは、多くのモデルの説明可能性の欠如に対処する必要性である。
我々は, 離散ベイズネットワーク分類器(bcs)の説明に注目し, 入力変数と出力変数だけではなく, 中間変数を説明に含めることで, 内部動作の透明性を高めることを目標としている。
提案されたBCに対する影響駆動的説明(IDX)は、BC内の変数間の因果関係を用いて体系的に生成され、インフルエンスと呼ばれ、その振る舞いに従って関係性と呼ばれる論理的要求によって分類される。
これらの関係性はどちらもヒューリスティックな説明方法を超えた保証を提供し、説明の基盤となる情報が特定の文脈やユーザの要求に合わせて調整されることを可能にする。
我々は,BCの様々な形態,例えばナイーブやマルチラベル,バイナリやカテゴリなどを説明するIDXの能力を実証するとともに,BCの文献からの説明への最近のアプローチを統合する。
理論的および経験的分析によりidxを評価し,既存の説明法と比較した場合,その有意なアドバンテージを示す。
関連論文リスト
- A Critical Assessment of Interpretable and Explainable Machine Learning for Intrusion Detection [0.0]
本稿では,過度に複雑で不透明なMLモデル,不均衡なデータと相関した特徴,異なる説明法における不整合な影響特徴,そして説明の不可能な有用性について検討する。
具体的には、Deep Neural Networksのような複雑な不透明モデルを避け、代わりにDecision Treesのような解釈可能なMLモデルを使用することを推奨する。
機能ベースのモデル説明は、多くの場合、異なる設定で矛盾している。
論文 参考訳(メタデータ) (2024-07-04T15:35:42Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Even-if Explanations: Formal Foundations, Priorities and Complexity [18.126159829450028]
線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-17T11:38:58Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Counterfactual Explanations Using Optimization With Constraint Learning [0.0]
制約学習を用いた最適化手法(CE-OCL)を提案する。
具体的には,制約学習フレームワークによる最適化を,対実的説明の生成に活用する方法について議論する。
また,データ多様体の近接性と多様性に対処する2つの新しいモデリング手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T13:27:21Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Do not explain without context: addressing the blind spot of model
explanations [2.280298858971133]
本稿では,機械学習モデルの監視と監査においてしばしば見落とされがちな盲点について述べる。
モデル説明の多くは参照データ分布の選択に直接的または間接的に依存する。
分布の小さな変化が、傾向の変化や、注意深い結論などの説明に劇的な変化をもたらす例を示す。
論文 参考訳(メタデータ) (2021-05-28T12:48:40Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Case-Based Abductive Natural Language Inference [4.726777092009554]
事例ベース帰納的自然言語推論(CB-ANLI)
事例ベース帰納的自然言語推論(CB-ANLI)
論文 参考訳(メタデータ) (2020-09-30T09:50:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。