論文の概要: SAFE: Saliency-Aware Counterfactual Explanations for DNN-based Automated
Driving Systems
- arxiv url: http://arxiv.org/abs/2307.15786v1
- Date: Fri, 28 Jul 2023 19:56:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:36:08.858447
- Title: SAFE: Saliency-Aware Counterfactual Explanations for DNN-based Automated
Driving Systems
- Title(参考訳): SAFE:DNNに基づく自動運転システムのためのサリエンシを考慮した対実説明
- Authors: Amir Samadi, Amir Shirian, Konstantinos Koufos, Kurt Debattista and
Mehrdad Dianati
- Abstract要約: CF説明器は、モデルの判断境界を越えるのに必要な最小限の修正を計算する。
現在のDeep Generative CFモデルは、ブラックボックスモデルの識別機能に注目するのではなく、ユーザ選択された機能で機能することが多い。
本稿では、より情報的なCF説明を生成するために、サリエンシマップを利用する新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 10.40211479079817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A CF explainer identifies the minimum modifications in the input that would
alter the model's output to its complement. In other words, a CF explainer
computes the minimum modifications required to cross the model's decision
boundary. Current deep generative CF models often work with user-selected
features rather than focusing on the discriminative features of the black-box
model. Consequently, such CF examples may not necessarily lie near the decision
boundary, thereby contradicting the definition of CFs. To address this issue,
we propose in this paper a novel approach that leverages saliency maps to
generate more informative CF explanations. Source codes are available at:
https://github.com/Amir-Samadi//Saliency_Aware_CF.
- Abstract(参考訳): CF説明器は、モデルの出力を補数に変更する入力の最小限の変更を識別する。
言い換えれば、CF説明器はモデルの判断境界を越えるのに必要な最小限の修正を計算する。
現在のディープジェネレーティブcfモデルはブラックボックスモデルの識別機能に注目するのではなく、ユーザー選択のフィーチャで動作します。
したがって、そのような CF の例は決定境界付近に必ずしも存在せず、したがって CF の定義に矛盾する。
この問題に対処するため,本稿では,より有用なcf説明を生成するために,サリエンシーマップを利用する新しい手法を提案する。
ソースコードは、https://github.com/Amir-Samadi//Saliency_Aware_CFで入手できる。
関連論文リスト
- The Gaussian Discriminant Variational Autoencoder (GdVAE): A Self-Explainable Model with Counterfactual Explanations [6.741417019751439]
視覚的対物的説明(CF)法は、画像の概念を変更し、予測を事前に定義された結果に変更する。
本稿では,条件付き変分オートエンコーダ(CVAE)とCF説明の統合に基づく自己説明可能なモデルであるGdVAEを紹介する。
CFsの整合性は、説明関数で潜在空間を正規化することによって改善される。
論文 参考訳(メタデータ) (2024-09-19T17:58:15Z) - Revisiting Catastrophic Forgetting in Large Language Model Tuning [79.70722658190097]
Catastrophic Forgetting (CF) は、新しいデータを学ぶ際に獲得した知識を忘れるモデルを意味する。
本稿では,モデル損失景観の平坦度と大規模言語モデルの分野におけるCFの広さとの直接的な関係を明らかにするための第一歩を踏み出した。
様々なモデルスケールにまたがる3つの大規模微調整データセットの実験により,CFを緩和する手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-07T11:09:13Z) - Diffusion-TTA: Test-time Adaptation of Discriminative Models via
Generative Feedback [97.0874638345205]
生成モデルは、識別モデルのための優れたテストタイムアダプタになり得る。
提案手法であるDiffusion-TTAは,事前学習した判別モデルを,テストセットの各未学習例に適応させる。
拡散-TTAは,様々な大規模事前学習型判別モデルの精度を著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-27T18:59:53Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Co(ve)rtex: ML Models as storage channels and their (mis-)applications [2.792027541710663]
機械学習システムでは、不注意な状態と未定義の振る舞いが重大な脆弱性の原因であることが示されている。
MLモデルは,パラメータ化の超過に伴って増大するキャパシティを持つストレージチャネルであると考えている。
本稿では,ML固有の置換に基づく誤り訂正プロトコルを含む,このケースにおけるキャパシティ向上のための最適化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T19:57:10Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - MGDCF: Distance Learning via Markov Graph Diffusion for Neural
Collaborative Filtering [96.65234340724237]
現状のGNNベースCFモデルとコンテキスト符号化に基づく従来の1層NRLモデルとの等価性を示す。
マルコフグラフ拡散協調フィルタ (MGDCF) を用いて, 最先端のGNNベースCFモデルを一般化する。
論文 参考訳(メタデータ) (2022-04-05T17:24:32Z) - ReLACE: Reinforcement Learning Agent for Counterfactual Explanations of
Arbitrary Predictive Models [6.939617874336667]
本稿では,最適対実的説明を生成するためのモデルに依存しないアルゴリズムを提案する。
本手法は,DRLエージェントが相互作用する環境に類似するため,任意のブラックボックスモデルに容易に適用できる。
さらに,DRLエージェントのポリシーから説明可能な決定ルールを抽出し,CF自体を透過的に生成するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-22T17:08:49Z) - CounterNet: End-to-End Training of Prediction Aware Counterfactual
Explanations [12.313007847721215]
CounterNetは、予測モデルトレーニングと対実的(CF)説明の生成を統合する、エンドツーエンドの学習フレームワークである。
ポストホック法とは異なり、CounterNetは予測モデルとともにCF説明生成を1回だけ最適化することができる。
複数の実世界のデータセットに対する実験により、CounterNetは高品質な予測を生成することが示された。
論文 参考訳(メタデータ) (2021-09-15T20:09:13Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。