論文の概要: SHIELD: Secure Hypernetworks for Incremental Expansion Learning Defense
- arxiv url: http://arxiv.org/abs/2506.08255v1
- Date: Mon, 09 Jun 2025 21:43:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.772993
- Title: SHIELD: Secure Hypernetworks for Incremental Expansion Learning Defense
- Title(参考訳): ShiELD: インクリメンタルな拡張学習防衛のためのセキュアなハイパーネットワーク
- Authors: Patryk Krukowski, Łukasz Gorczyca, Piotr Helm, Kamil Książek, Przemysław Spurek,
- Abstract要約: 本稿では、超ネットワークベースの連続学習アプローチとインターバル算術を統合する新しいアプローチであるShielDを紹介する。
本手法は,ネットワーク適応性を犠牲にすることなくセキュリティを強化し,継続的な学習における安全性の課題に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional deep neural networks suffer from several limitations, including catastrophic forgetting. When models are adapted to new datasets, they tend to quickly forget previously learned knowledge. Another significant issue is the lack of robustness to even small perturbations in the input data. In practice, we can often easily perform adversarial attacks and change the network's predictions, adding minimal noise to the input. Dedicated architectures and training procedures can solve each of the above problems separately. Unfortunately, currently, no model can simultaneously address both catastrophic forgetting and vulnerability to adversarial attacks. We introduce SHIELD (Secure Hypernetworks for Incremental Expansion and Learning Defense), a novel approach that integrates a hypernetwork-based continual learning approach with interval arithmetic. SHIELD use the hypernetwork to transfer trainable task embedding vectors into the weights of a target model dedicated to specific data. This paradigm allows for the dynamic generation of separate networks for each subtask, while the hypernetwork aggregates and analyzes information across all tasks. The target model takes in the input a data sample with a defined interval range, and by creating a hypercube, produces a prediction for the given range. Therefore, such target models provide strict guarantees against all possible attacks for data samples within the interval range. Our approach enhances security without sacrificing network adaptability, addressing the overlooked challenge of safety in continual learning.
- Abstract(参考訳): 従来のディープニューラルネットワークは、破滅的な忘れなど、いくつかの制限に悩まされている。
モデルが新しいデータセットに適合すると、学習済みの知識をすぐに忘れてしまう傾向がある。
もう一つの大きな問題は、入力データに小さな摂動さえも堅牢性がないことである。
実際には、敵の攻撃やネットワークの予測の変更を容易に行うことができ、入力に最小限のノイズを加えることができる。
述語アーキテクチャとトレーニング手順は、上記の各問題を別々に解決することができる。
残念なことに、現在、大惨事と敵の攻撃に対する脆弱性の両方に同時に対処できるモデルは存在しない。
本稿では、超ネットワークベースの連続学習アプローチとインターバル算術を統合する新しいアプローチであるShiELD(Secure Hypernetworks for Incremental Expansion and Learning Defense)を紹介する。
ShiELDはハイパーネットワークを使用して、訓練可能なタスク埋め込みベクターを特定のデータ専用のターゲットモデルの重みに転送する。
このパラダイムは、各サブタスクごとに別々のネットワークを動的に生成し、ハイパーネットワークは全てのタスクにまたがる情報を集約し分析する。
対象モデルは、所定の間隔範囲でデータサンプルを入力し、ハイパーキューブを作成することにより、与えられた範囲の予測を生成する。
したがって、そのようなターゲットモデルは、インターバル範囲内のデータサンプルに対する全ての攻撃に対して厳格な保証を提供する。
本手法は,ネットワーク適応性を犠牲にすることなくセキュリティを強化し,継続的な学習における安全性の課題に対処する。
関連論文リスト
- Concealed Adversarial attacks on neural networks for sequential data [2.1879059908547482]
我々は、異なる時系列モデルに対する隠れた敵攻撃を開発する。
より現実的な摂動を提供し、人間またはモデル判別器によって検出するのが困難である。
この結果から,堅牢な時系列モデルを設計する上での課題が浮き彫りになった。
論文 参考訳(メタデータ) (2025-02-28T11:03:32Z) - NetFlowGen: Leveraging Generative Pre-training for Network Traffic Dynamics [72.95483148058378]
我々は,NetFlowレコードからのトラフィックデータのみを用いて,トラフィックダイナミクスをキャプチャする汎用機械学習モデルを事前学習することを提案する。
ネットワーク特徴表現の統一,未ラベルの大規模トラフィックデータ量からの学習,DDoS攻撃検出における下流タスクのテストといった課題に対処する。
論文 参考訳(メタデータ) (2024-12-30T00:47:49Z) - Learning to Forget using Hypernetworks [5.5779348065867085]
HyperForgetは、ターゲットデータに関する知識を欠くモデルをサンプリングする機械学習フレームワークである。
未学習モデルは、リザーブセットの精度を保ちながら、リザーブセットの精度をゼロとした。
論文 参考訳(メタデータ) (2024-12-01T10:43:11Z) - Adaptive Domain Inference Attack with Concept Hierarchy [4.772368796656325]
最もよく知られているモデルターゲットアタックは、アタッカーがアプリケーションドメインを学んだり、データの分散を訓練したと仮定する。
モデルAPIからドメイン情報を取り除くことは、これらの攻撃からモデルを保護することができるか?
提案した適応的ドメイン推論攻撃(ADI)は、トレーニングデータの関連するサブセットを評価できることを示す。
論文 参考訳(メタデータ) (2023-12-22T22:04:13Z) - What Can We Learn from Unlearnable Datasets? [107.12337511216228]
学習不可能なデータセットは、ディープニューラルネットワークの一般化を防ぐことによって、データのプライバシを保護する可能性がある。
学習不可能なデータセットでトレーニングされたニューラルネットワークは、一般化には役に立たない単純なルールであるショートカットのみを学ぶと広く信じられている。
これとは対照的に,ネットワークは高いテスト性能を期待できる有用な特徴を実際に学習することができ,画像保護が保証されていないことを示唆している。
論文 参考訳(メタデータ) (2023-05-30T17:41:35Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Improving Hyperspectral Adversarial Robustness Under Multiple Attacks [2.741266294612776]
本稿では,この問題に対処するために,敵識別器のアンサンブルネットワーク(ADE-Net)を提案する。
提案手法では, 識別器ネットワークを用いて, 攻撃タイプによるデータを, 特定の攻撃-熟練アンサンブルネットワークに分離する。
論文 参考訳(メタデータ) (2022-10-28T18:21:45Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。