論文の概要: On Transfer of Adversarial Robustness from Pretraining to Downstream
Tasks
- arxiv url: http://arxiv.org/abs/2208.03835v2
- Date: Mon, 9 Oct 2023 16:48:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 16:30:31.657800
- Title: On Transfer of Adversarial Robustness from Pretraining to Downstream
Tasks
- Title(参考訳): 事前訓練から下流作業への対向ロバスト性の伝達について
- Authors: Laura Fee Nern, Harsh Raj, Maurice Georgi, Yash Sharma
- Abstract要約: 下流タスクにおける線形予測子のロバスト性は、その基盤となる表現のロバスト性によって制約できることを示す。
本結果は,適応後の信頼性向上のために,表現関数の要求を特徴付けるための最初のステップを提供する。
- 参考スコア(独自算出の注目度): 1.8900691517352295
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large-scale training regimes have gained popularity, the use of pretrained
models for downstream tasks has become common practice in machine learning.
While pretraining has been shown to enhance the performance of models in
practice, the transfer of robustness properties from pretraining to downstream
tasks remains poorly understood. In this study, we demonstrate that the
robustness of a linear predictor on downstream tasks can be constrained by the
robustness of its underlying representation, regardless of the protocol used
for pretraining. We prove (i) a bound on the loss that holds independent of any
downstream task, as well as (ii) a criterion for robust classification in
particular. We validate our theoretical results in practical applications, show
how our results can be used for calibrating expectations of downstream
robustness, and when our results are useful for optimal transfer learning.
Taken together, our results offer an initial step towards characterizing the
requirements of the representation function for reliable post-adaptation
performance.
- Abstract(参考訳): 大規模トレーニング体制が普及するにつれて、下流タスクに事前訓練されたモデルを使用することが、機械学習において一般的な実践となっている。
事前トレーニングは、実際にモデルの性能を高めることが示されているが、事前トレーニングから下流タスクへのロバスト性特性の移行は、まだよく分かっていない。
本研究では,下流タスクにおける線形予測子のロバスト性は,事前学習に使用するプロトコルによらず,その基盤となる表現のロバスト性によって制約されることを示す。
証明します
(i)下流の業務とは無関係に持つ損失の限度
(ii)特にロバスト分類の基準
実験の結果を実用的応用で検証し, 下流ロバスト性の期待値の校正や, 最適転校学習に有用である場合の検証を行った。
その結果,信頼度の高い適応後性能に対する表現関数の要求を特徴付けるための最初のステップが得られた。
関連論文リスト
- Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Making Pre-trained Language Models both Task-solvers and
Self-calibrators [52.98858650625623]
プレトレーニング言語モデル(PLM)は、様々な現実世界のシステムのバックボーンとして機能する。
以前の研究は、余分なキャリブレーションタスクを導入することでこの問題を緩和できることを示している。
課題に対処するためのトレーニングアルゴリズムLM-TOASTを提案する。
論文 参考訳(メタデータ) (2023-07-21T02:51:41Z) - Task-Robust Pre-Training for Worst-Case Downstream Adaptation [62.05108162160981]
プレトレーニングは下流のタスクに移行することで大きな成功を収めた。
本稿では,下流タスクに対する一様性能を保証するモデルについて,事前学習について考察する。
論文 参考訳(メタデータ) (2023-06-21T07:43:23Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Uncertainty in Contrastive Learning: On the Predictability of Downstream
Performance [7.411571833582691]
このような表現の不確実性は、単一のデータポイントに対して有意義な方法で定量化できるかどうかを考察する。
埋め込み空間におけるトレーニングデータの分布を直接推定することにより,この目標を達成することができることを示す。
論文 参考訳(メタデータ) (2022-07-19T15:44:59Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Pre-training also Transfers Non-Robustness [20.226917627173126]
一般化への貢献が認められているにもかかわらず、事前学習は、事前訓練されたモデルから微調整されたモデルへの非破壊性も伝達する。
その結果, 損耗を緩和し, 一般化を保ち, 有効性を検証した。
論文 参考訳(メタデータ) (2021-06-21T11:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。