論文の概要: Learning from Peers: Collaborative Ensemble Adversarial Training
- arxiv url: http://arxiv.org/abs/2509.00089v1
- Date: Wed, 27 Aug 2025 13:10:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.068018
- Title: Learning from Peers: Collaborative Ensemble Adversarial Training
- Title(参考訳): ペアから学ぶ:協力的なアンサンブル対人訓練
- Authors: Li Dengjin, Guo Yanming, Xie Yuxiang, Li Zheng, Chen Jiangming, Li Xiaolong, Lao Mingrui,
- Abstract要約: 本研究では, アンサンブルにおけるサブモデル間の協調学習を強調するための, 効率的で効率的なコラボレーション・アンサンブル・アドバイザリアル・トレーニング(CEAT)を提案する。
CEATはモデルに依存しないため、柔軟性のある様々なアンサンブル法にシームレスに適応することができる。
- 参考スコア(独自算出の注目度): 1.805627331168865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensemble Adversarial Training (EAT) attempts to enhance the robustness of models against adversarial attacks by leveraging multiple models. However, current EAT strategies tend to train the sub-models independently, ignoring the cooperative benefits between sub-models. Through detailed inspections of the process of EAT, we find that that samples with classification disparities between sub-models are close to the decision boundary of ensemble, exerting greater influence on the robustness of ensemble. To this end, we propose a novel yet efficient Collaborative Ensemble Adversarial Training (CEAT), to highlight the cooperative learning among sub-models in the ensemble. To be specific, samples with larger predictive disparities between the sub-models will receive greater attention during the adversarial training of the other sub-models. CEAT leverages the probability disparities to adaptively assign weights to different samples, by incorporating a calibrating distance regularization. Extensive experiments on widely-adopted datasets show that our proposed method achieves the state-of-the-art performance over competitive EAT methods. It is noteworthy that CEAT is model-agnostic, which can be seamlessly adapted into various ensemble methods with flexible applicability.
- Abstract(参考訳): Ensemble Adversarial Training (EAT)は、複数のモデルを活用することで、敵攻撃に対するモデルの堅牢性を高める試みである。
しかし、現在のEAT戦略は、サブモデル間の協調的な利益を無視して、サブモデルを個別に訓練する傾向がある。
EATのプロセスの詳細な検査により,サブモデル間の分類格差のあるサンプルがアンサンブルの判断境界に近く,アンサンブルの堅牢性に大きな影響を及ぼすことがわかった。
そこで本研究では,アンサンブルにおけるサブモデル間の協調学習を強調するための,効率的で効率的なコラボレーション・アンサンブル・Adversarial Training(CEAT)を提案する。
具体的には、サブモデル間の予測格差が大きいサンプルは、他のサブモデルの対角訓練中により注目される。
CEATは、測定距離の正則化を組み込むことで、確率格差を活用して、異なるサンプルに重みを適応的に割り当てる。
提案手法は,競争的EAT法よりも最先端の性能を達成できることを示す。
CEATはモデルに依存しないため、柔軟性のある様々なアンサンブル手法にシームレスに適応できる。
関連論文リスト
- Out-of-Distribution Detection via Deep Multi-Comprehension Ensemble [11.542472900306745]
マルチComprehension (MC) Ensemble は,OOD (Out-of-Distribution) 特徴表現を拡大するための戦略として提案されている。
OOD検出におけるMC Ensemble戦略の優れた性能を示す実験結果を得た。
これにより,提案手法がトレーニング分布外のインスタンスを検出できるモデルの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-24T18:43:04Z) - Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Learning Data Representations with Joint Diffusion Models [20.25147743706431]
データの合成と分類を可能にする統合機械学習モデルは、多くの場合、それらのタスク間の不均一なパフォーマンスを提供するか、トレーニングが不安定である。
それらの目的間のパラメータ化を共用した安定な連立エンドツーエンドトレーニングを可能にする分類器を用いて,バニラ拡散モデルを拡張した。
結果として得られた共同拡散モデルは、評価された全てのベンチマークにおいて、分類と生成品質の両方の観点から、最近の最先端のハイブリッド手法よりも優れている。
論文 参考訳(メタデータ) (2023-01-31T13:29:19Z) - Learning from demonstration using products of experts: applications to
manipulation and task prioritization [12.378784643460474]
異なるタスク空間におけるモデルの融合は、専門家(PoE)の積として表現できることを示す。
複数の実験を行い、PoEフレームワークで異なるモデルを共同で学習することで、モデルの品質が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-10-07T16:24:41Z) - Model Agnostic Combination for Ensemble Learning [0.0]
本稿では,モデルを組み合わせるための最適関数を見つけるために,MACという新しいアンサンブル手法を提案する。
サブモデルの数に依存しないため、デプロイ後もサブモデルの追加と置き換えが可能である。
論文 参考訳(メタデータ) (2020-06-16T09:44:58Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。