論文の概要: SAFE: Saliency-Aware Counterfactual Explanations for DNN-based Automated
Driving Systems
- arxiv url: http://arxiv.org/abs/2307.15786v1
- Date: Fri, 28 Jul 2023 19:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:36:08.858447
- Title: SAFE: Saliency-Aware Counterfactual Explanations for DNN-based Automated
Driving Systems
- Title(参考訳): SAFE:DNNに基づく自動運転システムのためのサリエンシを考慮した対実説明
- Authors: Amir Samadi, Amir Shirian, Konstantinos Koufos, Kurt Debattista and
Mehrdad Dianati
- Abstract要約: CF説明器は、モデルの判断境界を越えるのに必要な最小限の修正を計算する。
現在のDeep Generative CFモデルは、ブラックボックスモデルの識別機能に注目するのではなく、ユーザ選択された機能で機能することが多い。
本稿では、より情報的なCF説明を生成するために、サリエンシマップを利用する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 10.40211479079817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A CF explainer identifies the minimum modifications in the input that would
alter the model's output to its complement. In other words, a CF explainer
computes the minimum modifications required to cross the model's decision
boundary. Current deep generative CF models often work with user-selected
features rather than focusing on the discriminative features of the black-box
model. Consequently, such CF examples may not necessarily lie near the decision
boundary, thereby contradicting the definition of CFs. To address this issue,
we propose in this paper a novel approach that leverages saliency maps to
generate more informative CF explanations. Source codes are available at:
https://github.com/Amir-Samadi//Saliency_Aware_CF.
- Abstract(参考訳): CF説明器は、モデルの出力を補数に変更する入力の最小限の変更を識別する。
言い換えれば、CF説明器はモデルの判断境界を越えるのに必要な最小限の修正を計算する。
現在のディープジェネレーティブcfモデルはブラックボックスモデルの識別機能に注目するのではなく、ユーザー選択のフィーチャで動作します。
したがって、そのような CF の例は決定境界付近に必ずしも存在せず、したがって CF の定義に矛盾する。
この問題に対処するため,本稿では,より有用なcf説明を生成するために,サリエンシーマップを利用する新しい手法を提案する。
ソースコードは、https://github.com/Amir-Samadi//Saliency_Aware_CFで入手できる。
関連論文リスト
- Diffusion-TTA: Test-time Adaptation of Discriminative Models via
Generative Feedback [97.0874638345205]
生成モデルは、識別モデルのための優れたテストタイムアダプタになり得る。
提案手法であるDiffusion-TTAは,事前学習した判別モデルを,テストセットの各未学習例に適応させる。
拡散-TTAは,様々な大規模事前学習型判別モデルの精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-27T18:59:53Z) - A Generic Stochastic Hybrid Car-following Model Based on Approximate
Bayesian Computation [10.05436171946782]
自動車追従モデル(CFモデル)は、交通力学を記述する上で基本的なものである。
最高のCFモデルを見つけることは、何十年にもわたっての研究にもかかわらず、困難で議論の的になっている。
本稿では,複数のCFモデルを統合するための学習手法を開発する。
論文 参考訳(メタデータ) (2023-11-27T04:14:13Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。