論文の概要: Decorrelative Network Architecture for Robust Electrocardiogram
Classification
- arxiv url: http://arxiv.org/abs/2207.09031v1
- Date: Tue, 19 Jul 2022 02:36:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:15:00.093188
- Title: Decorrelative Network Architecture for Robust Electrocardiogram
Classification
- Title(参考訳): ロバスト心電図分類のための相関ネットワークアーキテクチャ
- Authors: Christopher Wiedeman and Ge Wang
- Abstract要約: 深層学習は心電図(ECG)分類において顕著な成績を示した。
敵防衛のパラダイムは多くの高次元問題に対して計算集約的で非現実的です。
本稿では,並列ネットワークアームを非相関アーキテクチャにトレーニングするためのアンサンブルデコレーションとパーティショニングに基づく新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 3.8288286455354292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence has made great progresses in medical data analysis,
but the lack of robustness and interpretability has kept these methods from
being widely deployed. In particular, data-driven models are vulnerable to
adversarial attacks, which are small, targeted perturbations that dramatically
degrade model performance. As a recent example, while deep learning has shown
impressive performance in electrocardiogram (ECG) classification, Han et al.
crafted realistic perturbations that fooled the network 74% of the time [2020].
Current adversarial defense paradigms are computationally intensive and
impractical for many high dimensional problems. Previous research indicates
that a network vulnerability is related to the features learned during
training. We propose a novel approach based on ensemble decorrelation and
Fourier partitioning for training parallel network arms into a decorrelated
architecture to learn complementary features, significantly reducing the chance
of a perturbation fooling all arms of the deep learning model. We test our
approach in ECG classification, demonstrating a much-improved 77.2% chance of
at least one correct network arm on the strongest adversarial attack tested, in
contrast to a 21.7% chance from a comparable ensemble. Our approach does not
require expensive optimization with adversarial samples, and thus can be scaled
to large problems. These methods can easily be applied to other tasks for
improved network robustness.
- Abstract(参考訳): 人工知能は医療データ分析において大きな進歩を遂げてきたが、堅牢性と解釈性の欠如により、これらの手法が広く展開されることは防がれている。
特に、データ駆動モデルは、モデルパフォーマンスを劇的に低下させる小さな標的摂動である敵攻撃に対して脆弱である。
最近の例として、深層学習は心電図分類(ecg)で印象的な性能を示したが、hanらはネットワークの74%を騙した現実的な摂動を開発した [2020]。
現在の敵対的防御パラダイムは、多くの高次元問題に対して計算集約的で実用的ではない。
これまでの研究によると、ネットワークの脆弱性はトレーニング中に学んだ機能と関連している。
本稿では,並列ネットワークアームを非相関アーキテクチャにトレーニングし,補完的な特徴を学習するためのアンサンブルデコリレーションとフーリエパーティショニングに基づく新しいアプローチを提案する。
我々は、我々のアプローチをECG分類においてテストし、最も強い敵の攻撃に対して、少なくとも1つの正しいネットワークアームが正常になる確率が77.2%であることを示す。
提案手法は, 対数サンプルによる高コストな最適化を必要としないため, 大きな問題にスケールできる。
これらの手法は、ネットワークロバスト性を改善するために他のタスクにも容易に適用できる。
関連論文リスト
- Adversarial Training Can Provably Improve Robustness: Theoretical Analysis of Feature Learning Process Under Structured Data [38.44734564565478]
本稿では, 特徴学習理論の観点から, 対角的例と対角的学習アルゴリズムの理論的理解を提供する。
本手法は,頑健な特徴学習を効果的に強化し,非ロバストな特徴学習を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-10-11T03:59:49Z) - MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Addressing Mistake Severity in Neural Networks with Semantic Knowledge [0.0]
ほとんどの堅牢なトレーニング技術は、摂動入力のモデル精度を改善することを目的としている。
強靭性の代替形態として、ニューラルネットワークが挑戦的な状況で犯した誤りの深刻度を低減することを目的としている。
我々は、現在の対人訓練手法を活用して、トレーニングプロセス中に標的の対人攻撃を発生させる。
その結果,本手法は,標準モデルや逆トレーニングモデルと比較して,誤り重大性に対して優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-21T22:01:36Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。