論文の概要: How Adversarial Robustness Transfers from Pre-training to Downstream
Tasks
- arxiv url: http://arxiv.org/abs/2208.03835v1
- Date: Sun, 7 Aug 2022 23:00:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-08-09 12:16:18.312848
- Title: How Adversarial Robustness Transfers from Pre-training to Downstream
Tasks
- Title(参考訳): 事前学習から下流課題への対向的ロバスト性伝達
- Authors: Laura Fee Nern, Yash Sharma
- Abstract要約: 事前訓練されたモデルから下流タスクへのロバスト性特性の伝達方法を示す。
下流タスクにおける予測子のロバスト性は、その基盤となる表現のロバスト性によって拘束可能であることを示す。
- 参考スコア(独自算出の注目度): 10.900522136064717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the rise of large-scale training regimes, adapting pre-trained models
to a wide range of downstream tasks has become a standard approach in machine
learning. While large benefits in empirical performance have been observed, it
is not yet well understood how robustness properties transfer from a
pre-trained model to a downstream task. We prove that the robustness of a
predictor on downstream tasks can be bound by the robustness of its underlying
representation, irrespective of the pre-training protocol. Taken together, our
results precisely characterize what is required of the representation function
for reliable performance upon deployment.
- Abstract(参考訳): 大規模なトレーニング体制の台頭により、トレーニング済みのモデルを幅広い下流タスクに適応させることが、機械学習の標準的アプローチとなっている。
経験的性能に大きな利点が観測されているが、事前訓練されたモデルから下流タスクへのロバスト性プロパティの転送方法はまだよく分かっていない。
下流タスクにおける予測子のロバスト性は,事前学習プロトコルによらず,その基盤となる表現のロバスト性によって拘束可能であることを示す。
総じて,デプロイ時の信頼性の高いパフォーマンスを実現するために,表現関数に何が必要かを正確に特徴付ける。
関連論文リスト
- Can Pre-training Indicators Reliably Predict Fine-tuning Outcomes of LLMs? [32.04523360747506]
本研究では,501BパラメータLLM変種を用いて,系統的な事前学習構成を持つデータセットを構築した。
本稿では,事前学習から得られた新しい教師なしおよび教師なしのプロキシメトリクスを導入し,相対的な性能予測誤差率を50%以上削減する。
論文 参考訳(メタデータ) (2025-04-16T21:19:09Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Making Pre-trained Language Models both Task-solvers and
Self-calibrators [52.98858650625623]
プレトレーニング言語モデル(PLM)は、様々な現実世界のシステムのバックボーンとして機能する。
以前の研究は、余分なキャリブレーションタスクを導入することでこの問題を緩和できることを示している。
課題に対処するためのトレーニングアルゴリズムLM-TOASTを提案する。
論文 参考訳(メタデータ) (2023-07-21T02:51:41Z) - Task-Robust Pre-Training for Worst-Case Downstream Adaptation [62.05108162160981]
プレトレーニングは下流のタスクに移行することで大きな成功を収めた。
本稿では,下流タスクに対する一様性能を保証するモデルについて,事前学習について考察する。
論文 参考訳(メタデータ) (2023-06-21T07:43:23Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Uncertainty in Contrastive Learning: On the Predictability of Downstream
Performance [7.411571833582691]
このような表現の不確実性は、単一のデータポイントに対して有意義な方法で定量化できるかどうかを考察する。
埋め込み空間におけるトレーニングデータの分布を直接推定することにより,この目標を達成することができることを示す。
論文 参考訳(メタデータ) (2022-07-19T15:44:59Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Pre-training also Transfers Non-Robustness [20.226917627173126]
一般化への貢献が認められているにもかかわらず、事前学習は、事前訓練されたモデルから微調整されたモデルへの非破壊性も伝達する。
その結果, 損耗を緩和し, 一般化を保ち, 有効性を検証した。
論文 参考訳(メタデータ) (2021-06-21T11:16:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。