論文の概要: Example-based Explanations with Adversarial Attacks for Respiratory
Sound Analysis
- arxiv url: http://arxiv.org/abs/2203.16141v1
- Date: Wed, 30 Mar 2022 08:28:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 16:57:08.149098
- Title: Example-based Explanations with Adversarial Attacks for Respiratory
Sound Analysis
- Title(参考訳): 呼吸音分析における敵対的攻撃の事例に基づく説明
- Authors: Yi Chang, Zhao Ren, Thanh Tam Nguyen, Wolfgang Nejdl, Bj\"orn W.
Schuller
- Abstract要約: 我々は、代表データ(プロトタイプ)と外れ値(批判)の両方を選択する統一的な例に基づく説明法を開発した。
特に、反復的高速勾配符号法を用いて、データインスタンスの説明スペクトルを生成するために、敵攻撃の新たな応用を提案する。
- 参考スコア(独自算出の注目度): 15.983890739091159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Respiratory sound classification is an important tool for remote screening of
respiratory-related diseases such as pneumonia, asthma, and COVID-19. To
facilitate the interpretability of classification results, especially ones
based on deep learning, many explanation methods have been proposed using
prototypes. However, existing explanation techniques often assume that the data
is non-biased and the prediction results can be explained by a set of
prototypical examples. In this work, we develop a unified example-based
explanation method for selecting both representative data (prototypes) and
outliers (criticisms). In particular, we propose a novel application of
adversarial attacks to generate an explanation spectrum of data instances via
an iterative fast gradient sign method. Such unified explanation can avoid
over-generalisation and bias by allowing human experts to assess the model
mistakes case by case. We performed a wide range of quantitative and
qualitative evaluations to show that our approach generates effective and
understandable explanation and is robust with many deep learning models
- Abstract(参考訳): 呼吸音分類は、肺炎、喘息、COVID-19などの呼吸器関連疾患のリモートスクリーニングのための重要なツールである。
特に深層学習に基づく分類結果の解釈を容易にするために,プロトタイプを用いて多くの説明手法が提案されている。
しかし、既存の説明手法ではデータが偏りがないと仮定されることが多く、予測結果は原型的な例のセットで説明できる。
本研究では,代表データ(プロトタイプ)と外れ値(批判)の両方を選択する統一的な例に基づく説明手法を開発する。
特に,反復的高速勾配符号法によるデータインスタンスの説明スペクトルを生成するために,新たな攻撃手法を提案する。
このような統一された説明は、人間の専門家がケースごとのモデルミスを評価することによって、過度な一般化と偏見を避けることができる。
我々は,本手法が効果的かつ理解可能な説明を生成し,多くの深層学習モデルで堅牢であることを示すため,幅広い定量的・質的な評価を行った。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - Analyzing the Influence of Training Samples on Explanations [5.695152528716705]
本稿では,与えられた説明に強い影響を与えるトレーニングデータサンプルを同定する新しい問題を提案する。
そこで本研究では,そのような学習サンプルを同定するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-05T07:20:06Z) - Enhancing Interpretability of Vertebrae Fracture Grading using Human-interpretable Prototypes [7.633493982907541]
本稿では,脊椎骨折(原型)の関連部分を見つけるための新しい解釈可能な設計手法であるProtoVerseを提案し,そのモデルの決定を人間に理解可能な方法で確実に説明する。
We have been experiment with the VerSe'19 dataset and outformed the existing prototype-based method。
論文 参考訳(メタデータ) (2024-04-03T16:04:59Z) - Towards Generating Adversarial Examples on Mixed-type Data [32.41305735919529]
そこで本研究では,M-Attackを用いた攻撃アルゴリズムを提案する。
M-Attackをベースとした攻撃者は、与えられたデータサンプルの数値的特徴と分類的特徴の両方をわずかに摂動させることで、ターゲットの分類モデルの予測を誤解させようとする。
我々の生成した敵の例は潜在的な検出モデルを避けることができるため、攻撃は本当に惨めである。
論文 参考訳(メタデータ) (2022-10-17T20:17:21Z) - Learning from Multiple Expert Annotators for Enhancing Anomaly Detection
in Medical Image Analysis [0.31317409221921133]
医用画像解析において、複数の専門家アノテータは「地上の真実ラベル」に関する主観的な推定をしばしば生成する。
深層学習に基づく検知器の訓練のために,複数の放射線学の専門家によるアノテーションを組み合わせた簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-03-20T17:57:26Z) - A Frequency Perspective of Adversarial Robustness [72.48178241090149]
理論的および経験的知見を参考に,周波数に基づく対向例の理解について述べる。
分析の結果,逆転例は高周波でも低周波成分でもないが,単にデータセット依存であることがわかった。
本稿では、一般に観測される精度対ロバスト性トレードオフの周波数に基づく説明法を提案する。
論文 参考訳(メタデータ) (2021-10-26T19:12:34Z) - Unsupervised Detection of Adversarial Examples with Model Explanations [0.6091702876917279]
本稿では,モデル動作を説明するために開発された手法を用いて,逆例を検出するための簡易かつ効果的な手法を提案する。
MNIST手書きデータセットを用いて評価したところ,本手法は高い信頼度で敵のサンプルを検出することができることがわかった。
論文 参考訳(メタデータ) (2021-07-22T06:54:18Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。