論文の概要: Gradient-free Post-hoc Explainability Using Distillation Aided Learnable Approach
- arxiv url: http://arxiv.org/abs/2409.11123v1
- Date: Tue, 17 Sep 2024 12:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 16:55:21.957149
- Title: Gradient-free Post-hoc Explainability Using Distillation Aided Learnable Approach
- Title(参考訳): 蒸留支援学習型アプローチによる勾配のないポストホック説明可能性
- Authors: Debarpan Bhattacharya, Amir H. Poorjam, Deepak Mittal, Sriram Ganapathy,
- Abstract要約: 本稿では, モデル勾配自由アプリケーションにおいて, 塩分濃度に基づく説明を生成しようとする, 蒸留支援説明可能性 (DAX) の枠組みを提案する。
DAXアプローチは、マスク生成ネットワークと蒸留ネットワークを備えた学習可能な環境における説明の問題を引き起こす。
様々なモード(画像と音声)のDAXを、多様な評価セットを用いて分類設定で広範囲に評価する。
- 参考スコア(独自算出の注目度): 30.275954568658836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recent advancements in artificial intelligence (AI), with the release of several large models having only query access, make a strong case for explainability of deep models in a post-hoc gradient free manner. In this paper, we propose a framework, named distillation aided explainability (DAX), that attempts to generate a saliency-based explanation in a model agnostic gradient free application. The DAX approach poses the problem of explanation in a learnable setting with a mask generation network and a distillation network. The mask generation network learns to generate the multiplier mask that finds the salient regions of the input, while the student distillation network aims to approximate the local behavior of the black-box model. We propose a joint optimization of the two networks in the DAX framework using the locally perturbed input samples, with the targets derived from input-output access to the black-box model. We extensively evaluate DAX across different modalities (image and audio), in a classification setting, using a diverse set of evaluations (intersection over union with ground truth, deletion based and subjective human evaluation based measures) and benchmark it with respect to $9$ different methods. In these evaluations, the DAX significantly outperforms the existing approaches on all modalities and evaluation metrics.
- Abstract(参考訳): 人工知能(AI)の最近の進歩は、クエリアクセスしか持たない大規模なモデルがいくつかリリースされ、ホック後の勾配のない方法でディープモデルの説明可能性の強いケースとなっている。
本稿では, モデル非依存勾配自由アプリケーションにおいて, サリエンシに基づく説明を生成しようとする蒸留支援説明可能性 (DAX) の枠組みを提案する。
DAXアプローチは、マスク生成ネットワークと蒸留ネットワークを備えた学習可能な環境における説明の問題を引き起こす。
マスク生成ネットワークは入力の正当領域を検出する乗算器マスクを生成するのを学習し、学生蒸留ネットワークはブラックボックスモデルの局所挙動を近似することを目的としている。
そこで我々は,ローカルな摂動入力サンプルを用いたDAXフレームワークにおける2つのネットワークの協調最適化を提案し,ブラックボックスモデルへの入力出力アクセスからターゲットを抽出した。
我々は,様々なモード(画像と音声)でDAXを広範囲に評価し,さまざまな評価セット(真実との結合,削除ベースおよび主観的人間評価に基づく尺度)を用いて分類し,9ドルの異なる手法で評価する。
これらの評価において、DAXは、すべてのモダリティと評価指標において、既存のアプローチを著しく上回っている。
関連論文リスト
- Derivative-Free Diffusion Manifold-Constrained Gradient for Unified XAI [59.96044730204345]
微分自由拡散多様体制約勾配(FreeMCG)を導入する。
FreeMCGは、与えられたニューラルネットワークの説明可能性を改善する基盤として機能する。
提案手法は,XAIツールが期待する本質性を保ちながら,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2024-11-22T11:15:14Z) - A Noise and Edge extraction-based dual-branch method for Shallowfake and Deepfake Localization [15.647035299476894]
従来のCNN機能と手動で設計した特徴雑音を統合したデュアルブランチモデルを開発した。
このモデルは比較において優れており、既存の最先端モデル(SoTA)よりも容易に優れている。
論文 参考訳(メタデータ) (2024-09-02T02:18:34Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - Exploring Diverse Representations for Open Set Recognition [51.39557024591446]
オープンセット認識(OSR)では、テスト中に未知のサンプルを拒絶しながら、クローズドセットに属するサンプルを分類する必要がある。
現在、生成モデルはOSRの差別モデルよりもよく機能している。
本稿では,多種多様な表現を識別的に学習するMulti-Expert Diverse Attention Fusion(MEDAF)を提案する。
論文 参考訳(メタデータ) (2024-01-12T11:40:22Z) - CamoDiffusion: Camouflaged Object Detection via Conditional Diffusion
Models [72.93652777646233]
カモフラーゲ型物体検出(COD)は、カモフラーゲ型物体とその周囲の類似性が高いため、コンピュータビジョンにおいて難しい課題である。
本研究では,CODを拡散モデルを利用した条件付きマスク生成タスクとして扱う新しいパラダイムを提案する。
カモ拡散(CamoDiffusion)と呼ばれる本手法では,拡散モデルのデノナイズプロセスを用いてマスクの雑音を反復的に低減する。
論文 参考訳(メタデータ) (2023-05-29T07:49:44Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Interpretable pipelines with evolutionarily optimized modules for RL
tasks with visual inputs [5.254093731341154]
進化的アルゴリズムを用いて協調最適化された複数の解釈可能なモデルからなるエンドツーエンドパイプラインを提案する。
Atariベンチマークの強化学習環境において,本手法を検証した。
論文 参考訳(メタデータ) (2022-02-10T10:33:44Z) - Deep Variational Models for Collaborative Filtering-based Recommender
Systems [63.995130144110156]
ディープラーニングは、リコメンダシステムの結果を改善するために、正確な協調フィルタリングモデルを提供する。
提案するモデルは, 深層建築の潜伏空間において, 変分概念を注入性に適用する。
提案手法は, 入射雑音効果を超える変動エンリッチメントのシナリオにおいて, 提案手法の優位性を示す。
論文 参考訳(メタデータ) (2021-07-27T08:59:39Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。