論文の概要: Diverse Knowledge Distillation (DKD): A Solution for Improving The
Robustness of Ensemble Models Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2006.15127v3
- Date: Thu, 7 Jan 2021 16:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 22:16:18.041982
- Title: Diverse Knowledge Distillation (DKD): A Solution for Improving The
Robustness of Ensemble Models Against Adversarial Attacks
- Title(参考訳): 多様な知識蒸留(dkd) : 敵対的攻撃に対するアンサンブルモデルのロバスト性向上のための解法
- Authors: Ali Mirzaeian, Jana Kosecka, Houman Homayoun, Tinoosh Mohsenin, Avesta
Sasan
- Abstract要約: 本稿では,敵攻撃に抵抗するアンサンブル学習モデルを提案する。
我々は、各メンバーが根本的に異なる潜在空間を学習する訓練プロセスを導入する。
本研究は, 防犯工法と比較し, 安全性と性能の向上を図っている。
- 参考スコア(独自算出の注目度): 7.3482278817765305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an ensemble learning model that is resistant to
adversarial attacks. To build resilience, we introduced a training process
where each member learns a radically distinct latent space. Member models are
added one at a time to the ensemble. Simultaneously, the loss function is
regulated by a reverse knowledge distillation, forcing the new member to learn
different features and map to a latent space safely distanced from those of
existing members. We assessed the security and performance of the proposed
solution on image classification tasks using CIFAR10 and MNIST datasets and
showed security and performance improvement compared to the state of the art
defense methods.
- Abstract(参考訳): 本稿では,敵攻撃に抵抗するアンサンブル学習モデルを提案する。
レジリエンスを構築するために、各メンバが根本的に異なる潜在空間を学習するトレーニングプロセスを導入しました。
メンバーモデルは一度に1つずつアンサンブルに追加される。
同時に、損失関数は、逆知識蒸留により制御され、新しい部材は、異なる特徴を学習させ、既存の部材から安全に離れた潜伏空間にマップする。
CIFAR10およびMNISTデータセットを用いて,画像分類タスクにおける提案手法のセキュリティと性能を評価し,アートディフェンス法と比較すると,セキュリティと性能が向上した。
関連論文リスト
- Robust Knowledge Distillation in Federated Learning: Counteracting Backdoor Attacks [12.227509826319267]
フェデレートラーニング(FL)は、データのプライバシを保持しながら、複数のデバイス間で協調的なモデルトレーニングを可能にする。
悪意のある参加者が世界モデルに侵入できるバックドア攻撃の影響を受けやすい。
本稿では,制約的仮定に頼らずにモデル整合性を高める新しい防御機構であるロバスト知識蒸留(RKD)を提案する。
論文 参考訳(メタデータ) (2025-02-01T22:57:08Z) - Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - Exploring Stronger Transformer Representation Learning for Occluded Person Re-Identification [2.552131151698595]
我々はトランスフォーマーに基づく人物識別フレームワークであるSSSC-TransReIDを組み合わせた新しい自己監督・監督手法を提案した。
我々は、ネガティブなサンプルや追加の事前学習なしに、人物の再識別のための特徴表現を強化することができる自己教師付きコントラスト学習ブランチを設計した。
提案モデルでは, 平均平均精度(mAP) とランク1の精度において, 最先端のReID手法よりも優れたRe-ID性能が得られ, 高いマージンで性能が向上する。
論文 参考訳(メタデータ) (2024-10-21T03:17:25Z) - Resisting Adversarial Attacks in Deep Neural Networks using Diverse
Decision Boundaries [12.312877365123267]
深層学習システムは、人間の目には認識できないが、モデルが誤分類される可能性がある、人工的な敵の例に弱い。
我々は,オリジナルモデルに対する多様な決定境界を持つディフェンダーモデルを構築するための,アンサンブルに基づく新しいソリューションを開発した。
我々は、MNIST、CIFAR-10、CIFAR-100といった標準画像分類データセットを用いて、最先端の敵攻撃に対する広範な実験を行った。
論文 参考訳(メタデータ) (2022-08-18T08:19:26Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。