論文の概要: Project and Probe: Sample-Efficient Domain Adaptation by Interpolating
Orthogonal Features
- arxiv url: http://arxiv.org/abs/2302.05441v1
- Date: Fri, 10 Feb 2023 18:58:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 14:58:39.798373
- Title: Project and Probe: Sample-Efficient Domain Adaptation by Interpolating
Orthogonal Features
- Title(参考訳): Project and Probe: 直交的特徴補間によるサンプル効率の良いドメイン適応
- Authors: Annie S. Chen, Yoonho Lee, Amrith Setlur, Sergey Levine, Chelsea Finn
- Abstract要約: 多様な特徴集合を学習し,対象分布に適応する,軽量でサンプル効率のよい手法を提案する。
複数の分散シフト設定を持つ4つのデータセットに対する実験により、Pro$2$は、限られたターゲットデータが与えられた場合、パフォーマンスを5~15%向上することが示された。
- 参考スコア(独自算出の注目度): 119.22672589020394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional approaches to robustness try to learn a model based on causal
features. However, identifying maximally robust or causal features may be
difficult in some scenarios, and in others, non-causal "shortcut" features may
actually be more predictive. We propose a lightweight, sample-efficient
approach that learns a diverse set of features and adapts to a target
distribution by interpolating these features with a small target dataset. Our
approach, Project and Probe (Pro$^2$), first learns a linear projection that
maps a pre-trained embedding onto orthogonal directions while being predictive
of labels in the source dataset. The goal of this step is to learn a variety of
predictive features, so that at least some of them remain useful after
distribution shift. Pro$^2$ then learns a linear classifier on top of these
projected features using a small target dataset. We theoretically show that
Pro$^2$ learns a projection matrix that is optimal for classification in an
information-theoretic sense, resulting in better generalization due to a
favorable bias-variance tradeoff. Our experiments on four datasets, with
multiple distribution shift settings for each, show that Pro$^2$ improves
performance by 5-15% when given limited target data compared to prior methods
such as standard linear probing.
- Abstract(参考訳): 従来のロバスト性へのアプローチは、因果的特徴に基づいてモデルを学習しようとする。
しかし、最大で堅牢な特徴や因果的な特徴を特定することは、いくつかのシナリオでは難しく、また別のシナリオでは、非因果的な「ショートカット」機能の方が実際より予測力が高いかもしれない。
多様な特徴の集合を学習し、これらの特徴を小さなターゲットデータセットで補間することにより、目標分布に適応する軽量でサンプル効率のアプローチを提案する。
当社のアプローチであるProject and Probe(Pro$^2$)は、まず、ソースデータセット内のラベルを予測しながら、トレーニング済みの埋め込みを直交方向へマッピングする線形射影を学習する。
このステップの目標は、さまざまな予測機能を学ぶことにある。
Pro$^2$は、小さなターゲットデータセットを使用して、これらの投影された機能の上に線形分類器を学ぶ。
理論的には、pro$^2$は情報理論的な意味で分類に最適な投影行列を学習し、有利なバイアス分散トレードオフによりより良い一般化をもたらす。
分散シフトを複数設定した4つのデータセットを実験した結果、pro$^2$は、標準線形プローブのような従来の方法と比較して、ターゲットデータに制限のある場合に5~15%性能が向上することが示された。
関連論文リスト
- Get more for less: Principled Data Selection for Warming Up Fine-Tuning in LLMs [18.242110417706]
この研究は、膨大なラベルのないオープンデータから事前訓練された言語モデルへの活用と選択に焦点を当てている。
特定の条件下での微調整タスクに対するこのアプローチの最適性を示す。
提案手法は既存の手法よりもはるかに高速で,GPU時間内に数百万のサンプルにスケールアップする。
論文 参考訳(メタデータ) (2024-05-05T00:08:00Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Variance Alignment Score: A Simple But Tough-to-Beat Data Selection
Method for Multimodal Contrastive Learning [17.40655778450583]
本稿では、Sigma_texttest, Sigma_irangle$という形式を持つVariance Alignment Score(VAS)という原則付き計量を提案する。
VASとCLIPのスコアを合わせると、ノイズの多いデータセットDataCompの38評価セットに1.3%、高品質なデータセットCC12MのVTABに2.5%の差でベースラインを上回ります。
論文 参考訳(メタデータ) (2024-02-03T06:29:04Z) - Few-shot Adaptation to Distribution Shifts By Mixing Source and Target Embeddings [16.009815290729904]
MixProは軽量でデータ効率のよいアプローチで、数ショットの適応が可能だ。
MixProはベースラインを最大7%上回り、2-4のターゲット例しかありません。
論文 参考訳(メタデータ) (2023-05-23T20:49:45Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - Data Selection for Language Models via Importance Resampling [90.9263039747723]
我々は、望まれるターゲット分布に合わせるために、大規模な未ラベルデータセットのサブセットを選択するという問題を形式化する。
我々は、LMデータ選択のために低次元で使用される古典的な重要度再サンプリング手法を拡張した。
DSIRフレームワークをhash n-gram機能でインスタンス化し、4.5時間で1億のドキュメントを選択できる。
論文 参考訳(メタデータ) (2023-02-06T23:57:56Z) - Lightweight Conditional Model Extrapolation for Streaming Data under
Class-Prior Shift [27.806085423595334]
非定常ストリーミングデータを用いて学習する新しい方法であるLIMESを紹介する。
我々は、特定のデータ分布に対する特定の分類器を導出するモデルパラメータの集合を1つ学習する。
Twitterデータを用いた一連の模範的なタスクの実験では、LIMESが代替手法よりも高い精度を達成することが示された。
論文 参考訳(メタデータ) (2022-06-10T15:19:52Z) - Deep learning model solves change point detection for multiple change
types [69.77452691994712]
変更点検出は、データ分散の急激な障害をキャッチすることを目的としている。
本稿では,マルチディストリビューションシナリオにおけるアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-15T09:44:21Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。