論文の概要: Bi-tuning of Pre-trained Representations
- arxiv url: http://arxiv.org/abs/2011.06182v1
- Date: Thu, 12 Nov 2020 03:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:41:17.511279
- Title: Bi-tuning of Pre-trained Representations
- Title(参考訳): 事前学習表現のバイチューニング
- Authors: Jincheng Zhong, Ximei Wang, Zhi Kou, Jianmin Wang, Mingsheng Long
- Abstract要約: Bi-tuningは、教師付きと教師なしの両方の事前訓練された表現を下流タスクに微調整するための一般的な学習フレームワークである。
バイチューニングは、事前訓練された表現のバックボーンに2つのヘッドを統合することで、バニラファインチューニングを一般化する。
バイチューニングは、教師付きモデルと教師なしモデルの両方の微調整タスクを大きなマージンで達成する。
- 参考スコア(独自算出の注目度): 79.58542780707441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It is common within the deep learning community to first pre-train a deep
neural network from a large-scale dataset and then fine-tune the pre-trained
model to a specific downstream task. Recently, both supervised and unsupervised
pre-training approaches to learning representations have achieved remarkable
advances, which exploit the discriminative knowledge of labels and the
intrinsic structure of data, respectively. It follows natural intuition that
both discriminative knowledge and intrinsic structure of the downstream task
can be useful for fine-tuning, however, existing fine-tuning methods mainly
leverage the former and discard the latter. A question arises: How to fully
explore the intrinsic structure of data for boosting fine-tuning? In this
paper, we propose Bi-tuning, a general learning framework to fine-tuning both
supervised and unsupervised pre-trained representations to downstream tasks.
Bi-tuning generalizes the vanilla fine-tuning by integrating two heads upon the
backbone of pre-trained representations: a classifier head with an improved
contrastive cross-entropy loss to better leverage the label information in an
instance-contrast way, and a projector head with a newly-designed categorical
contrastive learning loss to fully exploit the intrinsic structure of data in a
category-consistent way. Comprehensive experiments confirm that Bi-tuning
achieves state-of-the-art results for fine-tuning tasks of both supervised and
unsupervised pre-trained models by large margins (e.g. 10.7\% absolute rise in
accuracy on CUB in low-data regime).
- Abstract(参考訳): ディープラーニングコミュニティでは、まず大規模なデータセットからディープニューラルネットワークを事前トレーニングした後、トレーニング済みモデルを特定の下流タスクに微調整することが一般的である。
近年,学習表現に対する教師付きおよび教師なし事前学習のアプローチは,ラベルの識別的知識と本質的なデータ構造をそれぞれ活用し,目覚ましい進歩を遂げている。
下流課題の判別的知識と本質的構造は微調整に有用であるが,既存の微調整手法は主に前者を活用し,後者を捨てるものである。
微調整を促進するために、データの本質的な構造を完全に探求するにはどうすればよいのか?
本稿では,教師付き表現と教師なし表現の両方を下流タスクに微調整する汎用学習フレームワークであるbi-tuningを提案する。
bi-tuningは、事前学習された表現のバックボーンに2つのヘッドを統合することで、バニラの微調整を一般化する: コントラスト的クロスエントロピー損失を改善した分類器ヘッド インスタンスコントラスト方法でラベル情報を活用するために、新しく設計されたカテゴリー的コントラスト学習損失を持つプロジェクタヘッド データをカテゴリ一貫性のある方法で完全に活用する。
総合的な実験により、Bi-tuningは教師付きモデルと教師なしモデルの両方の微調整タスクを大きなマージンで達成する(例えば、低データシステムにおけるCUBの精度の絶対的な上昇)。
関連論文リスト
- On the Generalization Ability of Unsupervised Pretraining [53.06175754026037]
教師なし学習の最近の進歩は、教師なし事前学習、および微調整がモデル一般化を改善することを示している。
本稿では、教師なし事前学習中に得られた知識の伝達可能性に影響を及ぼす重要な要因をその後の微調整フェーズに照らす新しい理論的枠組みを提案する。
この結果は教師なし事前学習と微調整のパラダイムの理解を深め、より効果的な事前学習アルゴリズムの設計に光を当てることができる。
論文 参考訳(メタデータ) (2024-03-11T16:23:42Z) - LEVI: Generalizable Fine-tuning via Layer-wise Ensemble of Different Views [28.081794908107604]
ファインチューニングは、新しい下流タスクで事前訓練された基礎モデルのパワーを活用するために使用される。
近年の研究では、微調整されたモデルから目に見えない分布への一般化の課題が観察されている。
そこで本研究では,タスク固有モデルを用いて,事前学習したモデルを階層的に適応的に組み立てる,一般化可能なファインチューニング手法LEVIを提案する。
論文 参考訳(メタデータ) (2024-02-07T08:16:40Z) - Bi-Drop: Enhancing Fine-tuning Generalization via Synchronous sub-net
Estimation and Optimization [58.90989478049686]
Bi-Dropは、様々なサブネットからの勾配を使ってモデルパラメータを選択的に更新する微調整戦略である。
GLUEベンチマークの実験は、Bi-Dropが従来の微調整方法よりも一貫して優れていることを示した。
論文 参考訳(メタデータ) (2023-05-24T06:09:26Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - Overwriting Pretrained Bias with Finetuning Data [36.050345384273655]
目的タスクと機密属性の相互関係を概念化した場合のバイアスや,データセット内の特定のグループを過小評価する場合のバイアスについて検討する。
事前訓練されたモデルの上に微調整されたモデルは、実際にそれらのバイアスを継承できるが、(2)このバイアスは、比較的小さな介入によって修正できる。
その結果、下流タスクのバイアスを軽減するためには、微調整データセットの慎重なキュレーションが重要であることが示唆され、事前訓練されたモデルのバイアスを補うこともできる。
論文 参考訳(メタデータ) (2023-03-10T19:10:58Z) - Two-Stage Fine-Tuning: A Novel Strategy for Learning Class-Imbalanced
Data [11.66734752179563]
長い尾の分散データの分類は難しい問題である。
トレーニング済みのモデルを下流タスクに転送する場合、特に微調整では、テールクラスでの学習は困難である。
本稿では,2段階のファインチューニングを提案する。まず,事前訓練されたモデルの最終層をクラスバランスの再重み付け損失で微調整し,次に標準のファインチューニングを実行する。
論文 参考訳(メタデータ) (2022-07-22T03:39:51Z) - Relieving Long-tailed Instance Segmentation via Pairwise Class Balance [85.53585498649252]
長い尾のインスタンスセグメンテーションは、クラス間のトレーニングサンプルの極端な不均衡のために難しいタスクである。
尾のついたものに対して、(大多数のサンプルを含む)ヘッドクラスの深刻なバイアスを引き起こす。
そこで本研究では,学習中の予測嗜好を蓄積するために,学習中に更新される混乱行列上に構築された新しいPairwise Class Balance(PCB)手法を提案する。
論文 参考訳(メタデータ) (2022-01-08T07:48:36Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。