論文の概要: Adaptive Epsilon Adversarial Training for Robust Gravitational Wave Parameter Estimation Using Normalizing Flows
- arxiv url: http://arxiv.org/abs/2412.07559v2
- Date: Tue, 17 Dec 2024 13:43:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:54:42.004341
- Title: Adaptive Epsilon Adversarial Training for Robust Gravitational Wave Parameter Estimation Using Normalizing Flows
- Title(参考訳): 正規化流れを用いたロバスト重力波パラメータ推定のための適応型エプシロン対向訓練
- Authors: Yiqian Yang, Xihua Zhu, Fan Zhang,
- Abstract要約: 正規化フロー(NF)モデルを用いたアドリラルトレーニングは、敵のサンプルを用いてモデルロバスト性を改善することを目的とした、新たな研究分野である。
本稿では,対数スケーリングを用いた勾配等級に基づく摂動強度を動的に調整するFGSM(Fast Gradient Sign Method)の適応型エプシロン法を提案する。
我々のハイブリッドアーキテクチャは、ResNetとInverse Autoregressive Flowを組み合わせることで、ベースラインモデルと比較してFGSM攻撃下での負のログ類似損失を47%削減します。
摂動強度0.05の強いプロジェクテッド・グラディエント・ディフレッシュ・アタックの下では、我々のモデルは6.4のNLLを維持し、優れたロバスト性を示しながら回避している。
- 参考スコア(独自算出の注目度): 2.4184866684341473
- License:
- Abstract: Adversarial training with Normalizing Flow (NF) models is an emerging research area aimed at improving model robustness through adversarial samples. In this study, we focus on applying adversarial training to NF models for gravitational wave parameter estimation. We propose an adaptive epsilon method for Fast Gradient Sign Method (FGSM) adversarial training, which dynamically adjusts perturbation strengths based on gradient magnitudes using logarithmic scaling. Our hybrid architecture, combining ResNet and Inverse Autoregressive Flow, reduces the Negative Log Likelihood (NLL) loss by 47\% under FGSM attacks compared to the baseline model, while maintaining an NLL of 4.2 on clean data (only 5\% higher than the baseline). For perturbation strengths between 0.01 and 0.1, our model achieves an average NLL of 5.8, outperforming both fixed-epsilon (NLL: 6.7) and progressive-epsilon (NLL: 7.2) methods. Under stronger Projected Gradient Descent attacks with perturbation strength of 0.05, our model maintains an NLL of 6.4, demonstrating superior robustness while avoiding catastrophic overfitting.
- Abstract(参考訳): 正規化フロー(NF)モデルを用いた逆行訓練は、逆行サンプルによるモデルロバスト性の向上を目的とした、新たな研究分野である。
本研究では,重力波パラメータ推定のためのNFモデルに逆方向トレーニングを適用することに焦点を当てた。
本稿では,対数スケーリングを用いた勾配等級に基づく摂動強度を動的に調整するFGSM(Fast Gradient Sign Method)の適応型エプシロン法を提案する。
我々のハイブリッドアーキテクチャは、ResNetとInverse Autoregressive Flowを組み合わせることで、ベースラインモデルと比較してFGSM攻撃下での負ログ類似度(NLL)損失を47 %削減します。
摂動強度0.01から0.1では, 平均NLLは5.8であり, 固定エプシロン (NLL: 6.7) とプログレッシブエプシロン (NLL: 7.2) の両方よりも優れていた。
摂動強度0.05のプロジェクテッド・グラディエント・ディフレッシュ・アタックでは,NLLは6.4であり,破滅的なオーバーフィッティングを回避しながら優れた強靭性を示す。
関連論文リスト
- Optimality and Adaptivity of Deep Neural Features for Instrumental Variable Regression [57.40108516085593]
ディープ・フィーチャー・インスツルメンタル・変数(DFIV)回帰(Deep Feature instrumental variable)は、ディープ・ニューラルネットワークによって学習されたデータ適応的特徴を用いたIV回帰に対する非パラメトリックなアプローチである。
DFIVアルゴリズムは,目的構造関数がベソフ空間にある場合,最小最適学習率を実現する。
論文 参考訳(メタデータ) (2025-01-09T01:22:22Z) - Efficient Gravitational Wave Parameter Estimation via Knowledge Distillation: A ResNet1D-IAF Approach [2.4184866684341473]
本研究では,重力波解析における計算効率を高めるため,知識蒸留技術を用いた新しい手法を提案する。
我々はResNet1Dと逆自己回帰フロー(Inverse Autoregressive Flow, IAF)アーキテクチャを組み合わせたフレームワークを開発し、複雑な教師モデルからの知識をより軽い学生モデルに伝達する。
実験の結果,教師モデルの4.09と比較すると,学生モデルは最適構成(40,100,0.75)で3.70の検証損失を達成し,パラメータの数を43%削減した。
論文 参考訳(メタデータ) (2024-12-11T03:56:46Z) - FLoCoRA: Federated learning compression with low-rank adaptation [0.0]
Low-Rank Adaptation (LoRA)法は、数十億のパラメータを含むモデルの効率的なパラメータ微調整で人気を集めている。
本稿では,フェデレートラーニングにおけるLoRA手法の適用例を示す。
論文 参考訳(メタデータ) (2024-06-20T07:59:29Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Understanding the robustness difference between stochastic gradient
descent and adaptive gradient methods [11.895321856533934]
勾配降下法(SGD)と適応勾配法はディープニューラルネットワークの訓練に広く用いられている。
これらの手法を用いて訓練したモデルの標準一般化性能の差は小さいが、SGDを用いて訓練したモデルは入力摂動下でははるかに頑健であることを示す。
論文 参考訳(メタデータ) (2023-08-13T07:03:22Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Manifold Interpolating Optimal-Transport Flows for Trajectory Inference [64.94020639760026]
最適輸送流(MIOFlow)を補間するマニフォールド補間法を提案する。
MIOFlowは、散発的なタイムポイントで撮影された静的スナップショットサンプルから、連続的な人口動態を学習する。
本手法は, 胚体分化および急性骨髄性白血病の治療から得られたscRNA-seqデータとともに, 分岐とマージによるシミュレーションデータについて検討した。
論文 参考訳(メタデータ) (2022-06-29T22:19:03Z) - Guided Diffusion Model for Adversarial Purification from Random Noise [0.0]
本稿では,敵攻撃に対する強力な防御策として,新しい拡散浄化法を提案する。
我々のモデルは、CIFAR-10データセット上でPGD-L_inf攻撃(eps = 8/255)の下で、89.62%の堅牢な精度を達成する。
論文 参考訳(メタデータ) (2022-06-22T06:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。