論文の概要: DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications
- arxiv url: http://arxiv.org/abs/2307.02094v1
- Date: Wed, 5 Jul 2023 08:11:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 14:33:43.546188
- Title: DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications
- Title(参考訳): DARE: 医学・医療分野におけるロバストテキスト記述に向けて
- Authors: Adam Ivankay, Mattia Rigotti, Pascal Frossard
- Abstract要約: 帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
- 参考スコア(独自算出の注目度): 54.93807822347193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Along with the successful deployment of deep neural networks in several
application domains, the need to unravel the black-box nature of these networks
has seen a significant increase recently. Several methods have been introduced
to provide insight into the inference process of deep neural networks. However,
most of these explainability methods have been shown to be brittle in the face
of adversarial perturbations of their inputs in the image and generic textual
domain. In this work we show that this phenomenon extends to specific and
important high stakes domains like biomedical datasets. In particular, we
observe that the robustness of explanations should be characterized in terms of
the accuracy of the explanation in linking a model's inputs and its decisions -
faithfulness - and its relevance from the perspective of domain experts -
plausibility. This is crucial to prevent explanations that are inaccurate but
still look convincing in the context of the domain at hand. To this end, we
show how to adapt current attribution robustness estimation methods to a given
domain, so as to take into account domain-specific plausibility. This results
in our DomainAdaptiveAREstimator (DARE) attribution robustness estimator,
allowing us to properly characterize the domain-specific robustness of faithful
explanations. Next, we provide two methods, adversarial training and FAR
training, to mitigate the brittleness characterized by DARE, allowing us to
train networks that display robust attributions. Finally, we empirically
validate our methods with extensive experiments on three established biomedical
benchmarks.
- Abstract(参考訳): ディープニューラルネットワークを複数のアプリケーションドメインに展開することに成功したことに加えて、これらのネットワークのブラックボックスの性質を解明する必要性も近年大幅に高まっている。
ディープニューラルネットワークの推論プロセスに関する洞察を提供するために、いくつかの方法が導入された。
しかし、これらの説明可能性の手法のほとんどは、画像および汎用テキスト領域における入力の逆摂動に直面して脆弱であることが示されている。
本研究では,この現象がバイオメディカルデータセットのような特定の,重要な高利得領域にまで及んでいることを示す。
特に,説明のロバスト性は,モデルの入力とその決定の不完全さをリンクする説明の正確さと,ドメインの専門家の称賛の観点からその関連性によって特徴づけるべきである。
これは、目の前のドメインの文脈で不正確だがまだ説得力があるように見える説明を防ぐのに不可欠である。
この目的のために、各領域に電流の寄与するロバスト性の評価手法を適用し、ドメイン固有の妥当性を考慮する方法を示す。
これにより、DomainAdaptiveAREstimator (DARE) アトリビューションロバストネス推定が実現し、忠実な説明のドメイン固有のロバストネスを適切に特徴づけることができます。
次に,dareの特徴である脆さを軽減し,堅牢な帰属を示すネットワークを訓練する手法として,敵対的訓練と遠方訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行った。
関連論文リスト
- Robust Domain Generalisation with Causal Invariant Bayesian Neural Networks [9.999199798941424]
本稿では,推論プロセスのメカニズムからデータ分布の学習を阻害するベイズ型ニューラルネットワークを提案する。
理論的,実験的に,我々のモデルは因果的介入下での推論に近似していることを示す。
論文 参考訳(メタデータ) (2024-10-08T20:38:05Z) - Towards Better Visualizing the Decision Basis of Networks via Unfold and
Conquer Attribution Guidance [29.016425469068587]
本稿では,ネットワーク決定の妥当性を高める新しいフレームワークUnfold and Conquer Guidance(UCAG)を提案する。
UCAGは画像のスライスに対する自信に順応し、豊富な明確な解釈をもたらす。
いくつかのメトリクスで性能を検証するために、多数の評価を行います。
論文 参考訳(メタデータ) (2023-12-21T03:43:19Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Robustness in Deep Learning for Computer Vision: Mind the gap? [13.576376492050185]
我々は、コンピュータビジョンのためのディープラーニングにおいて、現在の定義と非敵対的堅牢性に向けての進歩を特定し、分析し、要約する。
この研究の分野は、敵対的機械学習に対して、不当にあまり注目されていないことがわかりました。
論文 参考訳(メタデータ) (2021-12-01T16:42:38Z) - On the Importance of Regularisation & Auxiliary Information in OOD
Detection [9.340611077939828]
この欠陥は、ニューラルネットワークがしばしば急激な相関に過度に適合していることを示す根本的な欠陥を示している。
本稿では,ネットワークが配布外サンプルを検出する能力を向上する2つの新しい目的について述べる。
論文 参考訳(メタデータ) (2021-07-15T18:57:10Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。