論文の概要: Adversarial generalization of unfolding (model-based) networks
- arxiv url: http://arxiv.org/abs/2509.15370v1
- Date: Thu, 18 Sep 2025 19:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.881026
- Title: Adversarial generalization of unfolding (model-based) networks
- Title(参考訳): 展開型(モデルベース)ネットワークの逆一般化
- Authors: Vicky Kouni,
- Abstract要約: 本稿では,$l$-normの制約付き攻撃で乱れた場合の展開ネットワークの対角一般化について検討する。
これは展開ネットワークの対角一般化に関する最初の理論的解析である。
実世界のデータに関する一連の実験を行い、得られた理論を裏付ける結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unfolding networks are interpretable networks emerging from iterative algorithms, incorporate prior knowledge of data structure, and are designed to solve inverse problems like compressed sensing, which deals with recovering data from noisy, missing observations. Compressed sensing finds applications in critical domains, from medical imaging to cryptography, where adversarial robustness is crucial to prevent catastrophic failures. However, a solid theoretical understanding of the performance of unfolding networks in the presence of adversarial attacks is still in its infancy. In this paper, we study the adversarial generalization of unfolding networks when perturbed with $l_2$-norm constrained attacks, generated by the fast gradient sign method. Particularly, we choose a family of state-of-the-art overaparameterized unfolding networks and deploy a new framework to estimate their adversarial Rademacher complexity. Given this estimate, we provide adversarial generalization error bounds for the networks under study, which are tight with respect to the attack level. To our knowledge, this is the first theoretical analysis on the adversarial generalization of unfolding networks. We further present a series of experiments on real-world data, with results corroborating our derived theory, consistently for all data. Finally, we observe that the family's overparameterization can be exploited to promote adversarial robustness, shedding light on how to efficiently robustify neural networks.
- Abstract(参考訳): 展開するネットワークは、反復アルゴリズムから生まれた解釈可能なネットワークであり、データ構造に関する事前の知識を取り入れ、ノイズからデータを回復する圧縮センシングのような逆問題を解決するように設計されている。
圧縮センシングは、医療画像から暗号まで重要な領域で応用され、敵の堅牢性は破滅的な失敗を防ぐために不可欠である。
しかし、敵攻撃の存在下での展開ネットワークの性能に関する確固たる理論的理解は、まだ初期段階にある。
本稿では,高速勾配符号法により生成された$l_2$-norm制約による攻撃を摂動した場合の展開ネットワークの対角一般化について検討する。
特に、最先端のオーバパラメタライズされた展開ネットワークのファミリーを選択し、その逆ラドマチャー複雑性を推定する新しいフレームワークをデプロイする。
この推定値から、攻撃レベルに対して厳密な研究対象ネットワークに対して、逆一般化誤差境界を提供する。
我々の知る限り、これは展開するネットワークの対角一般化に関する最初の理論的解析である。
さらに、実世界のデータに関する一連の実験を行い、結果は、我々の導出した理論を、すべてのデータに対して一貫して裏付ける。
最後に、家族の過度パラメータ化を利用して、敵の堅牢性を促進し、ニューラルネットワークを効果的に堅牢化する方法について光を当てる。
関連論文リスト
- TDNetGen: Empowering Complex Network Resilience Prediction with Generative Augmentation of Topology and Dynamics [14.25304439234864]
本稿では,ネットワークトポロジとダイナミックスの生成的データ拡張を通じてこの問題に対処するために設計された,複雑なネットワークに対する新しいレジリエンス予測フレームワークを提案する。
3つのネットワークデータセットの実験結果から,提案するフレームワークであるTDNetGenは,最大85%~95%の精度で高い予測精度を達成可能であることが示された。
論文 参考訳(メタデータ) (2024-08-19T09:20:31Z) - Towards Improving Robustness Against Common Corruptions using Mixture of
Class Specific Experts [10.27974860479791]
本稿では,クラス特化エキスパートアーキテクチャの混合として知られる新しいパラダイムを紹介する。
提案したアーキテクチャは、一般的なニューラルネットワーク構造に関連する脆弱性を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-16T20:09:47Z) - Generalization analysis of an unfolding network for analysis-based Compressed Sensing [17.814125871206077]
展開ネットワークは、圧縮センシング(CS)分野において有望な結果を示している。
我々は最先端ADMMベースの展開ネットワークの一般化解析を行う。
提案手法は理論的な結果に適合し,ベースラインを上回ります。
論文 参考訳(メタデータ) (2023-03-09T21:13:32Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z) - Bridging Mode Connectivity in Loss Landscapes and Adversarial Robustness [97.67477497115163]
我々は、モード接続を用いて、ディープニューラルネットワークの対角的堅牢性を研究する。
実験では、異なるネットワークアーキテクチャやデータセットに適用される様々な種類の敵攻撃について取り上げる。
以上の結果から,モード接続は,敵の強靭性を評価・改善するための総合的なツールであり,実用的な手段であることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T19:12:50Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。