論文の概要: Decorrelative Network Architecture for Robust Electrocardiogram
Classification
- arxiv url: http://arxiv.org/abs/2207.09031v4
- Date: Fri, 16 Feb 2024 17:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 21:33:02.079698
- Title: Decorrelative Network Architecture for Robust Electrocardiogram
Classification
- Title(参考訳): ロバスト心電図分類のための相関ネットワークアーキテクチャ
- Authors: Christopher Wiedeman and Ge Wang
- Abstract要約: すべてのシナリオで正確であるネットワークをトレーニングすることはできない。
深層学習法は不確実性を推定するためにモデルパラメータ空間をサンプリングする。
これらのパラメータは、しばしば、敵の攻撃によって悪用される、同じ脆弱性にさらされる。
本稿では,特徴デコレーションとフーリエ分割に基づく新たなアンサンブル手法を提案する。
- 参考スコア(独自算出の注目度): 4.808817930937323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence has made great progress in medical data analysis, but
the lack of robustness and trustworthiness has kept these methods from being
widely deployed. As it is not possible to train networks that are accurate in
all scenarios, models must recognize situations where they cannot operate
confidently. Bayesian deep learning methods sample the model parameter space to
estimate uncertainty, but these parameters are often subject to the same
vulnerabilities, which can be exploited by adversarial attacks. We propose a
novel ensemble approach based on feature decorrelation and Fourier partitioning
for teaching networks diverse complementary features, reducing the chance of
perturbation-based fooling. We test our approach on single and multi-channel
electrocardiogram classification, and adapt adversarial training and DVERGE
into the Bayesian ensemble framework for comparison. Our results indicate that
the combination of decorrelation and Fourier partitioning generally maintains
performance on unperturbed data while demonstrating superior robustness and
uncertainty estimation on projected gradient descent and smooth adversarial
attacks of various magnitudes. Furthermore, our approach does not require
expensive optimization with adversarial samples, adding much less compute to
the training process than adversarial training or DVERGE. These methods can be
applied to other tasks for more robust and trustworthy models.
- Abstract(参考訳): 人工知能は医療データ分析において大きな進歩を遂げてきたが、堅牢性と信頼性の欠如により、これらの手法が広く展開されるのを防いだ。
すべてのシナリオで正確なネットワークをトレーニングすることは不可能であるため、モデルは、自信を持って運用できない状況を認識する必要がある。
ベイズ深層学習法は不確実性を推定するためにモデルパラメータ空間をサンプリングするが、これらのパラメータは敵の攻撃によって悪用されるため、しばしば同じ脆弱性を被る。
本稿では,相補的特徴を多用したネットワークのための特徴分離とフーリエ分割に基づく新しいアンサンブル手法を提案する。
我々は,単チャンネル心電図の分類と,逆行訓練とDVERGEをベイズアンサンブルの枠組みに適応させて比較を行った。
以上の結果から,非相関とフーリエ分割の組み合わせは一般に不飽和データの性能を維持しつつ,投影勾配降下におけるロバスト性や不確実性の推定や,様々な大きさの滑らかな逆襲を実証する。
さらに,本手法では,対戦型トレーニングやDVERGEよりもはるかに少ない演算量で,対戦型サンプルによるコストの最適化は不要である。
これらの方法は、より堅牢で信頼できるモデルのために他のタスクにも適用できる。
関連論文リスト
- Adversarial Training Can Provably Improve Robustness: Theoretical Analysis of Feature Learning Process Under Structured Data [38.44734564565478]
本稿では, 特徴学習理論の観点から, 対角的例と対角的学習アルゴリズムの理論的理解を提供する。
本手法は,頑健な特徴学習を効果的に強化し,非ロバストな特徴学習を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-10-11T03:59:49Z) - MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Addressing Mistake Severity in Neural Networks with Semantic Knowledge [0.0]
ほとんどの堅牢なトレーニング技術は、摂動入力のモデル精度を改善することを目的としている。
強靭性の代替形態として、ニューラルネットワークが挑戦的な状況で犯した誤りの深刻度を低減することを目的としている。
我々は、現在の対人訓練手法を活用して、トレーニングプロセス中に標的の対人攻撃を発生させる。
その結果,本手法は,標準モデルや逆トレーニングモデルと比較して,誤り重大性に対して優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-21T22:01:36Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - PDC-Net+: Enhanced Probabilistic Dense Correspondence Network [161.76275845530964]
高度確率密度対応ネットワーク(PDC-Net+)は、精度の高い高密度対応を推定できる。
我々は、堅牢で一般化可能な不確実性予測に適したアーキテクチャと強化されたトレーニング戦略を開発する。
提案手法は,複数の挑戦的幾何マッチングと光学的フローデータセットに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-28T17:56:41Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。