論文の概要: The Easy Path to Robustness: Coreset Selection using Sample Hardness
- arxiv url: http://arxiv.org/abs/2510.11018v1
- Date: Mon, 13 Oct 2025 05:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.211438
- Title: The Easy Path to Robustness: Coreset Selection using Sample Hardness
- Title(参考訳): ロバストネスへの簡単な道:サンプル硬度を用いたコアセット選択
- Authors: Pranav Ramesh, Arjun Roy, Deepak Ravikumar, Kaushik Roy, Gopalakrishnan Srinivasan,
- Abstract要約: 本稿では,サンプルの対向的脆弱性をテキスト硬度にリンクするフレームワークを提案し,トレーニングにおける平均入力勾配基準(AIGN)を用いて定量化する。
本稿では,AIGNの低いサンプルのみを保持するコアセット選択アルゴリズムであるEasyCoreを提案する。
我々は、EasyCore選択されたデータに基づいてトレーニングされたモデルが、競合するコアセット法でトレーニングされたモデルよりもはるかに高い逆精度を実現することを実証的に示す。
- 参考スコア(独自算出の注目度): 12.378609890122945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Designing adversarially robust models from a data-centric perspective requires understanding which input samples are most crucial for learning resilient features. While coreset selection provides a mechanism for efficient training on data subsets, current algorithms are designed for clean accuracy and fall short in preserving robustness. To address this, we propose a framework linking a sample's adversarial vulnerability to its \textit{hardness}, which we quantify using the average input gradient norm (AIGN) over training. We demonstrate that \textit{easy} samples (with low AIGN) are less vulnerable and occupy regions further from the decision boundary. Leveraging this insight, we present EasyCore, a coreset selection algorithm that retains only the samples with low AIGN for training. We empirically show that models trained on EasyCore-selected data achieve significantly higher adversarial accuracy than those trained with competing coreset methods under both standard and adversarial training. As AIGN is a model-agnostic dataset property, EasyCore is an efficient and widely applicable data-centric method for improving adversarial robustness. We show that EasyCore achieves up to 7\% and 5\% improvement in adversarial accuracy under standard training and TRADES adversarial training, respectively, compared to existing coreset methods.
- Abstract(参考訳): データ中心の観点から逆向きに堅牢なモデルを設計するには、回復力のある機能を学ぶのにどの入力サンプルが最も重要であるかを理解する必要がある。
コアセットの選択は、データサブセットを効率的にトレーニングするためのメカニズムを提供するが、現在のアルゴリズムは、正確さとロバスト性を維持するために設計されている。
そこで本研究では,サンプルの対角的脆弱性をその‘textit{hardness}’にリンクするフレームワークを提案する。
我々は、(AIGNが低い) textit{easy} サンプルの脆弱性が低く、決定境界からさらに領域を占有することが実証された。
この知見を生かして,AIGNの低いサンプルのみを保持するコアセット選択アルゴリズムであるEasyCoreを提案する。
実験により、EasyCore選択データに基づいてトレーニングされたモデルは、標準と逆の両方のトレーニングの下で、競合するコアセットメソッドでトレーニングされたモデルよりも、はるかに高い精度で学習できることを実証的に示す。
AIGNはモデルに依存しないデータセット特性であるため、EasyCoreは敵の堅牢性を改善するための効率的で広く適用可能なデータ中心の手法である。
従来のコアセット法と比較して, EasyCore は, 標準トレーニングおよび TRADES 逆トレーニングにおいて, 最大 7 % と 5 % の精度向上を実現していることを示す。
関連論文リスト
- SubZeroCore: A Submodular Approach with Zero Training for Coreset Selection [9.129619927191973]
SubZeroCoreは、サブモジュールのカバレッジと密度を単一の統一された目的に統合する、トレーニング不要なコアセット選択方法である。
SubZeroCoreはトレーニングベースのベースラインと一致し、高いプルーニングレートで大幅に性能を向上し、計算オーバーヘッドを劇的に削減することを示す。
論文 参考訳(メタデータ) (2025-09-26T01:26:45Z) - Improving the Efficiency of Self-Supervised Adversarial Training through Latent Clustering-Based Selection [2.7554677967598047]
逆向きの堅牢な学習は、トレーニングの例をはるかに多く求めていると広く認識されている。
近年の研究では、モデルロバスト性を高めるために、外部または合成された未ラベルデータを用いた自己教師付き対人訓練が提案されている。
そこで本稿では,SSATに不可欠なラベルなしデータの小さなサブセットを戦略的に選択し,ロバスト性を向上させる手法を提案する。
論文 参考訳(メタデータ) (2025-01-15T15:47:49Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - DE-CROP: Data-efficient Certified Robustness for Pretrained Classifiers [21.741026088202126]
そこで本研究では,いくつかのトレーニングサンプルを用いて,事前学習したモデルのロバスト性を証明する新しい手法を提案する。
提案手法は,各トレーニングサンプルに対応するクラス境界および補間標本を生成する。
複数のベンチマークデータセットのベースラインに対する大幅な改善と、課題のあるブラックボックス設定の下でも同様のパフォーマンスを報告しています。
論文 参考訳(メタデータ) (2022-10-17T10:41:18Z) - Adversarial Coreset Selection for Efficient Robust Training [11.510009152620666]
トレーニングデータの小さなサブセットを選択することは、堅牢なトレーニングの時間的複雑さを軽減するための原則的なアプローチを提供する方法を示す。
本手法が敵の訓練を2~3回高速化することを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-09-13T07:37:53Z) - Adversarial Unlearning: Reducing Confidence Along Adversarial Directions [88.46039795134993]
本稿では,自己生成事例の信頼性を低下させる補完的な正規化戦略を提案する。
RCADと呼ばれるこの手法は、トレーニング損失を増やすために反対に選択された方向に沿って横たわっている流通外の事例に対する信頼性を低下させることを目的としている。
その単純さにもかかわらず、多くの分類ベンチマークでは、RCADを既存の技術に追加して、絶対値の1~3%の精度でテストできることがわかった。
論文 参考訳(メタデータ) (2022-06-03T02:26:24Z) - Active Learning for Deep Visual Tracking [51.5063680734122]
畳み込みニューラルネットワーク(CNN)は近年,単一目標追跡タスクに成功している。
本稿では,ディープ・ビジュアル・トラッキングのためのアクティブ・ラーニング手法を提案する。
アクティブラーニングの指導のもと、トレーニングされた深層CNNモデルに基づくトラッカーは、ラベリングコストを低減しつつ、競合的なトラッキング性能を達成することができる。
論文 参考訳(メタデータ) (2021-10-17T11:47:56Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。