論文の概要: DRO-Augment Framework: Robustness by Synergizing Wasserstein Distributionally Robust Optimization and Data Augmentation
- arxiv url: http://arxiv.org/abs/2506.17874v1
- Date: Sun, 22 Jun 2025 02:18:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.6306
- Title: DRO-Augment Framework: Robustness by Synergizing Wasserstein Distributionally Robust Optimization and Data Augmentation
- Title(参考訳): DRO-Augment Framework: 分散ロバスト最適化とデータ拡張を併用したロバストネス
- Authors: Jiaming Hu, Debarghya Mukherjee, Ioannis Ch. Paschalidis,
- Abstract要約: DRO-Augmentは、Wasserstein Distributionally Robust Optimizationと様々なデータ拡張戦略を統合する新しいフレームワークである。
本手法は,重度データ摂動および逆攻撃シナリオ下での既存の拡張手法より優れる。
理論的には,計算効率のよい変分正規化損失関数を用いて学習したニューラルネットワークに対して,新たな一般化誤差境界を確立する。
- 参考スコア(独自算出の注目度): 13.764572786186879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many real-world applications, ensuring the robustness and stability of deep neural networks (DNNs) is crucial, particularly for image classification tasks that encounter various input perturbations. While data augmentation techniques have been widely adopted to enhance the resilience of a trained model against such perturbations, there remains significant room for improvement in robustness against corrupted data and adversarial attacks simultaneously. To address this challenge, we introduce DRO-Augment, a novel framework that integrates Wasserstein Distributionally Robust Optimization (W-DRO) with various data augmentation strategies to improve the robustness of the models significantly across a broad spectrum of corruptions. Our method outperforms existing augmentation methods under severe data perturbations and adversarial attack scenarios while maintaining the accuracy on the clean datasets on a range of benchmark datasets, including but not limited to CIFAR-10-C, CIFAR-100-C, MNIST, and Fashion-MNIST. On the theoretical side, we establish novel generalization error bounds for neural networks trained using a computationally efficient, variation-regularized loss function closely related to the W-DRO problem.
- Abstract(参考訳): 多くの実世界のアプリケーションでは、ディープニューラルネットワーク(DNN)の堅牢性と安定性を保証することが重要である。
データ強化技術は、そのような摂動に対する訓練されたモデルの弾力性を高めるために広く採用されているが、破損したデータに対する堅牢性の向上と敵攻撃を同時に行うための重要な余地は残されている。
DRO-Augmentは、Wasserstein Distributionally Robust Optimization (W-DRO)を様々なデータ拡張戦略と統合し、広範囲の汚職においてモデルの堅牢性を大幅に改善する新しいフレームワークである。
本手法は,CIFAR-10-C,CIFAR-100-C,MNIST,Fashion-MNISTに限らず,さまざまなベンチマークデータセット上でクリーンデータセットの精度を維持しながら,重度のデータ摂動および逆攻撃シナリオ下での既存の拡張手法よりも優れている。
理論的には、W-DRO問題と密接に関連する計算効率のよい変分正規化損失関数を用いて訓練されたニューラルネットワークに対する新しい一般化誤差境界を確立する。
関連論文リスト
- Distributionally Robust Federated Learning with Client Drift Minimization [35.08453461129848]
textitDRDMは分散的に堅牢な最適化フレームワークであり、動的正規化によりクライアントのドリフトを緩和する。
textitDRDMは、最悪のクライアントのパフォーマンスを最大化することを目的とした、min-max最適化問題としてトレーニングをフレーム化している。
実験の結果,textitDRDMは通信ラウンドを減らしながら最悪のテスト精度を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-05-21T11:05:56Z) - Improving $(α, f)$-Byzantine Resilience in Federated Learning via layerwise aggregation and cosine distance [7.8973037023478785]
フェデレートラーニング(FL)は、分散機械学習におけるデータプライバシの課題に対する潜在的な解決策である。
FLシステムは、悪意のあるノードが破損したモデル更新に寄与するビザンティン攻撃に弱いままである。
本稿では,高次元設定における規則の堅牢性向上を目的とした新しいアグリゲーション手法であるLayerwise Cosine Aggregationを紹介する。
論文 参考訳(メタデータ) (2025-03-27T08:07:39Z) - UncertaintyRAG: Span-Level Uncertainty Enhanced Long-Context Modeling for Retrieval-Augmented Generation [93.38604803625294]
IncertaintyRAG, a novel approach for long-context Retrieval-Augmented Generation (RAG)について紹介する。
我々は、SNR(Signal-to-Noise Ratio)ベースのスパン不確実性を用いて、テキストチャンク間の類似性を推定する。
不確かさRAGはLLaMA-2-7Bでベースラインを2.03%上回り、最先端の結果を得る。
論文 参考訳(メタデータ) (2024-10-03T17:39:38Z) - A constrained optimization approach to improve robustness of neural networks [1.2338729811609355]
クリーンなデータに対する精度を維持しつつ、敵攻撃に対する堅牢性を向上させるために、ファインチューン事前学習ニューラルネットワークに対する非線形プログラミングに基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-18T18:37:14Z) - Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness [47.9744734181236]
我々は、ディープニューラルネットワーク(DNN)の敵攻撃に対する堅牢性を証明するために、リプシッツ連続性の概念を探求する。
本稿では,入力領域を制約範囲に再マップし,リプシッツ定数を低減し,ロバスト性を高める新しいアルゴリズムを提案する。
本手法は,ロバストベンチリーダーボード上のCIFAR10,CIFAR100,ImageNetデータセットに対して,最も堅牢な精度を実現する。
論文 参考訳(メタデータ) (2024-06-28T03:10:36Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Uncertainty-Aware Source-Free Adaptive Image Super-Resolution with Wavelet Augmentation Transformer [60.31021888394358]
Unsupervised Domain Adaptation (UDA)は、現実世界の超解像(SR)における領域ギャップ問題に効果的に対処できる
本稿では,画像SR(SODA-SR)のためのSOurce-free Domain Adaptationフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-31T03:14:44Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。