論文の概要: SHIELD: Secure Hypernetworks for Incremental Expansion Learning Defense
- arxiv url: http://arxiv.org/abs/2506.08255v2
- Date: Sun, 03 Aug 2025 17:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 20:32:48.613348
- Title: SHIELD: Secure Hypernetworks for Incremental Expansion Learning Defense
- Title(参考訳): ShiELD: インクリメンタルな拡張学習防衛のためのセキュアなハイパーネットワーク
- Authors: Patryk Krukowski, Łukasz Gorczyca, Piotr Helm, Kamil Książek, Przemysław Spurek,
- Abstract要約: 本稿では,逐次的タスク間で堅牢な連続学習を可能にする新しいフレームワークを提案する。
提案手法であるShielDは,コンパクトなタスク埋め込みのみを前提とした共有ハイパーネットワークにより,タスク固有のモデルパラメータを生成する。
より堅牢性を高めるために,我々は,MixUpポイントを中心とした$ell_infty$ボールとして表現された仮想例をブレンドする,新しいトレーニング戦略であるInterval MixUpを紹介した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning under adversarial conditions remains an open problem, as existing methods often compromise either robustness, scalability, or both. We propose a novel framework that integrates Interval Bound Propagation (IBP) with a hypernetwork-based architecture to enable certifiably robust continual learning across sequential tasks. Our method, SHIELD, generates task-specific model parameters via a shared hypernetwork conditioned solely on compact task embeddings, eliminating the need for replay buffers or full model copies and enabling efficient over time. To further enhance robustness, we introduce Interval MixUp, a novel training strategy that blends virtual examples represented as $\ell_{\infty}$ balls centered around MixUp points. Leveraging interval arithmetic, this technique guarantees certified robustness while mitigating the wrapping effect, resulting in smoother decision boundaries. We evaluate SHIELD under strong white-box adversarial attacks, including PGD and AutoAttack, across multiple benchmarks. It consistently outperforms existing robust continual learning methods, achieving state-of-the-art average accuracy while maintaining both scalability and certification. These results represent a significant step toward practical and theoretically grounded continual learning in adversarial settings.
- Abstract(参考訳): 既存の手法は堅牢性やスケーラビリティ、あるいはその両方を損なうことが多いため、敵対的な条件下での継続的な学習は依然としてオープンな問題である。
本稿では、インターバルバウンド・プロパゲーション(IBP)をハイパーネットワークベースのアーキテクチャと統合し、逐次的タスク間の堅牢な連続学習を可能にする新しいフレームワークを提案する。
提案手法は,コンパクトなタスク埋め込みのみを前提とした共有ハイパーネットワークを用いて,タスク固有のモデルパラメータを生成し,バッファやフルモデルコピーの再生を不要にし,時間とともに効率を向上する。
より堅牢性を高めるために、我々は、MixUpポイントを中心とした$\ell_{\infty}$ボールとして表される仮想例をブレンドする、新しいトレーニング戦略であるInterval MixUpを紹介した。
インターバル演算を活用することで、ラッピング効果を緩和しながら証明されたロバスト性を保証し、よりスムーズな決定境界をもたらす。
PGD や AutoAttack など,強いホワイトボックス攻撃下での ShiELD の評価を複数のベンチマークで行った。
既存の堅牢な継続的学習手法を一貫して上回り、スケーラビリティと認証の両方を維持しながら最先端の平均精度を達成する。
これらの結果は,現実的かつ理論的に根ざした連続学習への重要な一歩である。
関連論文リスト
- MINGLE: Mixtures of Null-Space Gated Low-Rank Experts for Test-Time Continual Model Merging [19.916880222546155]
連続モデルマージは、オリジナルのトレーニングデータにアクセスすることなく、個別に微調整されたモデルを逐次統合する。
MINGLEは、少数の未ラベルテストサンプルを使用したテスト時間連続モデルマージのための新しいフレームワークである。
MINGLEは、従来の最先端のメソッドを、さまざまなタスクオーダの平均で7-9%上回っている。
論文 参考訳(メタデータ) (2025-05-17T07:24:22Z) - Concealed Adversarial attacks on neural networks for sequential data [2.1879059908547482]
我々は、異なる時系列モデルに対する隠れた敵攻撃を開発する。
より現実的な摂動を提供し、人間またはモデル判別器によって検出するのが困難である。
この結果から,堅牢な時系列モデルを設計する上での課題が浮き彫りになった。
論文 参考訳(メタデータ) (2025-02-28T11:03:32Z) - NetFlowGen: Leveraging Generative Pre-training for Network Traffic Dynamics [72.95483148058378]
我々は,NetFlowレコードからのトラフィックデータのみを用いて,トラフィックダイナミクスをキャプチャする汎用機械学習モデルを事前学習することを提案する。
ネットワーク特徴表現の統一,未ラベルの大規模トラフィックデータ量からの学習,DDoS攻撃検出における下流タスクのテストといった課題に対処する。
論文 参考訳(メタデータ) (2024-12-30T00:47:49Z) - Adversarial Robustness through Dynamic Ensemble Learning [0.0]
敵対的攻撃は、事前訓練された言語モデル(PLM)の信頼性に重大な脅威をもたらす
本稿では,このような攻撃に対するPLMの堅牢性を高めるための新しいスキームであるDynamic Ensemble Learning (ARDEL) による対逆ロバスト性について述べる。
論文 参考訳(メタデータ) (2024-12-20T05:36:19Z) - BiCert: A Bilinear Mixed Integer Programming Formulation for Precise Certified Bounds Against Data Poisoning Attacks [62.897993591443594]
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
データ中毒攻撃は、現代のAIシステムにとって最大の脅威の1つだ。
論文 参考訳(メタデータ) (2024-12-13T14:56:39Z) - Learning to Forget using Hypernetworks [5.5779348065867085]
HyperForgetは、ターゲットデータに関する知識を欠くモデルをサンプリングする機械学習フレームワークである。
未学習モデルは、リザーブセットの精度を保ちながら、リザーブセットの精度をゼロとした。
論文 参考訳(メタデータ) (2024-12-01T10:43:11Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Maintaining Adversarial Robustness in Continuous Learning [10.746120682014437]
防衛アルゴリズムによって強化された敵の堅牢性は、ニューラルネットワークの重みが更新されて新しいタスクが学習されるため、容易に消去される。
本稿では,従来のデータから試料勾配を効果的に安定化させる新しい勾配予測手法を提案する。
この技術は、サンプル勾配平滑化による防御アルゴリズムのクラスと協調することにより、堅牢性を維持することができる。
論文 参考訳(メタデータ) (2024-02-17T05:14:47Z) - Towards Continual Learning Desiderata via HSIC-Bottleneck
Orthogonalization and Equiangular Embedding [55.107555305760954]
本稿では,レイヤワイドパラメータのオーバーライトや決定境界の歪みに起因する,概念的にシンプルで効果的な手法を提案する。
提案手法は,ゼロの指数バッファと1.02倍の差が絶対的に優れていても,競争精度が向上する。
論文 参考訳(メタデータ) (2024-01-17T09:01:29Z) - Adaptive Domain Inference Attack with Concept Hierarchy [4.772368796656325]
最もよく知られているモデルターゲットアタックは、アタッカーがアプリケーションドメインを学んだり、データの分散を訓練したと仮定する。
モデルAPIからドメイン情報を取り除くことは、これらの攻撃からモデルを保護することができるか?
提案した適応的ドメイン推論攻撃(ADI)は、トレーニングデータの関連するサブセットを評価できることを示す。
論文 参考訳(メタデータ) (2023-12-22T22:04:13Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Improving Hyperspectral Adversarial Robustness Under Multiple Attacks [2.741266294612776]
本稿では,この問題に対処するために,敵識別器のアンサンブルネットワーク(ADE-Net)を提案する。
提案手法では, 識別器ネットワークを用いて, 攻撃タイプによるデータを, 特定の攻撃-熟練アンサンブルネットワークに分離する。
論文 参考訳(メタデータ) (2022-10-28T18:21:45Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Ensemble-in-One: Learning Ensemble within Random Gated Networks for
Enhanced Adversarial Robustness [18.514706498043214]
敵の攻撃は現代のディープラーニングシステムに高いセキュリティリスクをもたらしている。
ランダムゲートネットワーク(RGN)内でアンサンブルを訓練するためのアンサンブル・イン・ワン(EIO)を提案する。
EIOは、従来のアンサンブルトレーニング手法を一貫して上回り、計算オーバーヘッドがさらに少なくなります。
論文 参考訳(メタデータ) (2021-03-27T03:13:03Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。