論文の概要: Efficient Contrastive Explanations on Demand
- arxiv url: http://arxiv.org/abs/2412.18262v1
- Date: Tue, 24 Dec 2024 08:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:54:30.492339
- Title: Efficient Contrastive Explanations on Demand
- Title(参考訳): 需要の効率的なコントラスト説明
- Authors: Yacine Izza, Joao Marques-Silva,
- Abstract要約: 本稿では,機械学習モデルに対して,いわゆるコントラスト的説明を計算するための新しいアルゴリズムを提案する。
また,本論文では,説明文をリストアップし,最小の対照的な説明文を見つけるための新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 7.109897082275965
- License:
- Abstract: Recent work revealed a tight connection between adversarial robustness and restricted forms of symbolic explanations, namely distance-based (formal) explanations. This connection is significant because it represents a first step towards making the computation of symbolic explanations as efficient as deciding the existence of adversarial examples, especially for highly complex machine learning (ML) models. However, a major performance bottleneck remains, because of the very large number of features that ML models may possess, in particular for deep neural networks. This paper proposes novel algorithms to compute the so-called contrastive explanations for ML models with a large number of features, by leveraging on adversarial robustness. Furthermore, the paper also proposes novel algorithms for listing explanations and finding smallest contrastive explanations. The experimental results demonstrate the performance gains achieved by the novel algorithms proposed in this paper.
- Abstract(参考訳): 最近の研究は、敵対的頑健性と制限された記号的説明、すなわち距離に基づく(形式的な)説明との密接な関係を明らかにした。
この接続は、特に高度に複雑な機械学習(ML)モデルにおいて、敵対的な例の存在を決定するのと同じくらい、シンボリックな説明の計算を効率的にするための第一歩である。
しかし、MLモデルには非常に多くの機能が備わっているため、特にディープニューラルネットワークでは大きなパフォーマンスボトルネックが残っている。
本稿では,多くの特徴を持つMLモデルに対して,対向的ロバスト性を利用して,いわゆるコントラスト的説明を計算するための新しいアルゴリズムを提案する。
さらに,本論文では,説明文を列挙し,最小の対照的な説明文を見つけるための新しいアルゴリズムも提案している。
本研究では,本論文で提案した新しいアルゴリズムによる性能向上について実験的に検証した。
関連論文リスト
- Sparks of Explainability: Recent Advancements in Explaining Large Vision Models [6.1642231492615345]
この論文は、ディープニューラルネットワークによって利用される特徴を分析し、モデル化することにより、コンピュータビジョンにおける説明可能性を改善するための高度なアプローチを探求する。
アルゴリズム的安定性に基づく計量とソボル指標を用いたアプローチを導入することにより、帰属法、特にサリエンシマップを評価する。
モデルと人間の推論を一致させ、概念的説明可能性アプローチを採用するという2つの仮説が検討されている。
論文 参考訳(メタデータ) (2025-02-03T04:49:32Z) - A Theoretical Perspective for Speculative Decoding Algorithm [60.79447486066416]
EmphSpeculative Decodingは、小さなモデルを使用して、ドラフトトークンのシーケンスと、検証のための大きなモデルをサンプリングする。
本稿では,マルコフ連鎖抽象化による復号化問題を概念化し,理論的な観点から,鍵特性,エファンアウトプットの品質,推論加速度について考察する。
論文 参考訳(メタデータ) (2024-10-30T01:53:04Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - From Robustness to Explainability and Back Again [3.7950144463212134]
本稿では、形式的説明可能性のスケーラビリティの低さに対処し、形式的説明を計算するための新しい効率的なアルゴリズムを提案する。
提案アルゴリズムは、代わりに複数のクエリに答えることによって説明を計算し、そのようなクエリの数は、機能数に対して最も線形であるように頑健である。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Disentangled Explanations of Neural Network Predictions by Finding Relevant Subspaces [14.70409833767752]
説明可能なAIは、ニューラルネットワークのような複雑なMLモデルのブラックボックスの性質を克服し、予測の説明を生成することを目的としている。
そこで本研究では,PCA や ICA に見られる原理を説明に拡張する2つの新しい分析法を提案する。
これらの新しい分析は、主成分分析 (PRCA) と解離関連部分空間分析 (DRSA) と呼ばれ、ばらつきや硬変の代わりに関連性を最大化する。
論文 参考訳(メタデータ) (2022-12-30T18:04:25Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations [26.500149465292246]
本稿では,記号的説明とスコアに基づく説明の両方を生成できるASTERYXという汎用的アプローチを提案する。
実験結果から,提案手法の有効性と,その記号的およびスコアに基づく説明法の有効性が示唆された。
論文 参考訳(メタデータ) (2022-06-23T08:37:32Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。