論文の概要: Treasure Hunt: Real-time Targeting of the Long Tail using Training-Time Markers
- arxiv url: http://arxiv.org/abs/2506.14702v1
- Date: Tue, 17 Jun 2025 16:40:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.577862
- Title: Treasure Hunt: Real-time Targeting of the Long Tail using Training-Time Markers
- Title(参考訳): 宝探し:トレーニングタイムマーカーを用いたロングテールのリアルタイムターゲティング
- Authors: Daniel D'souza, Julia Kreutzer, Adrien Morisot, Ahmet Üstün, Sara Hooker,
- Abstract要約: 大規模な汎用モデルは、多くのタスクのために訓練されるが、高周波のユースケースでベストに機能する。
我々は,ロングテール性能を改善するために,トレーニングと推論技術の違いを再考する。
ベースモデルを微調整して自動的にマーカーを推測するので、推論時にオプションになります。
- 参考スコア(独自算出の注目度): 11.323087045148927
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One of the most profound challenges of modern machine learning is performing well on the long-tail of rare and underrepresented features. Large general-purpose models are trained for many tasks, but work best on high-frequency use cases. After training, it is hard to adapt a model to perform well on specific use cases underrepresented in the training corpus. Relying on prompt engineering or few-shot examples to maximize the output quality on a particular test case can be frustrating, as models can be highly sensitive to small changes, react in unpredicted ways or rely on a fixed system prompt for maintaining performance. In this work, we ask: "Can we optimize our training protocols to both improve controllability and performance on underrepresented use cases at inference time?" We revisit the divide between training and inference techniques to improve long-tail performance while providing users with a set of control levers the model is trained to be responsive to. We create a detailed taxonomy of data characteristics and task provenance to explicitly control generation attributes and implicitly condition generations at inference time. We fine-tune a base model to infer these markers automatically, which makes them optional at inference time. This principled and flexible approach yields pronounced improvements in performance, especially on examples from the long tail of the training distribution. While we observe an average lift of 5.7% win rates in open-ended generation quality with our markers, we see over 9.1% gains in underrepresented domains. We also observe relative lifts of up to 14.1% on underrepresented tasks like CodeRepair and absolute improvements of 35.3% on length instruction following evaluations.
- Abstract(参考訳): 現代の機械学習における最も大きな課題の1つは、稀で表現不足な機能のロングテールでうまく機能することである。
大規模な汎用モデルは、多くのタスクのために訓練されるが、高周波のユースケースでベストに機能する。
トレーニング後、トレーニングコーパスに記載されていない特定のユースケースに対して、モデルをうまく適応させることは困難である。
特定のテストケースで出力品質を最大化するために、プロンプトエンジニアリングや少数ショットの例を頼りにすれば、モデルが小さな変更に非常に敏感になり、予測できない方法で反応したり、パフォーマンスを維持するために固定されたシステムプロンプトに依存する可能性があるため、イライラする可能性がある。
トレーニングプロトコルを最適化して、未表現のユースケースの制御性とパフォーマンスを推論時に改善するのでしょうか?
我々は、モデルが応答するように訓練された一連の制御レバーをユーザーに提供しながら、ロングテールパフォーマンスを改善するために、トレーニングと推論のテクニックの分割を再考する。
我々は,データ特性の詳細な分類とタスク証明を作成し,推論時における生成属性と暗黙的に条件生成を明示的に制御する。
ベースモデルを微調整してこれらのマーカーを自動的に推測するので、推論時にオプションになります。
この原則と柔軟なアプローチは、特にトレーニング分布の長い尾からの例において、パフォーマンスが顕著に向上する。
マーカーによるオープンエンド世代品質の平均利得率は5.7%であるが、表現不足の領域では9.1%以上の利得がある。
また、CodeRepairのような未表現タスクで最大14.1%の相対的なリフトと、評価後の長さ指示で35.3%の絶対的な改善も観察する。
関連論文リスト
- Occam's model: Selecting simpler representations for better transferability estimation [5.329941688969535]
本稿では,事前学習したモデルの伝達可能性を評価するための2つの新しい指標を提案する。
さまざまな問題設定にまたがる最先端の代替手段に対して、提案した指標を厳格に評価する。
我々は、我々の測定値が最先端のベースラインと比較して、KendallのTauを最大32%増加させることを実験的に示した。
論文 参考訳(メタデータ) (2025-02-10T18:23:24Z) - Training Dynamics of a 1.7B LLaMa Model: A Data-Efficient Approach [10.39475177812483]
約200億個のデータに対するDMaS-LLaMa-Liteのトレーニングから得られた洞察を共有します。
我々は、検証損失レベルとダウンストリームベンチマークの進化が、不整合テキストから、流動的で文脈に根ざしたアウトプットへの移行を反映しているかを記述した、完全なトレーニングの軌跡を詳述する。
これらの経験を詳述し、トレーニングログ、チェックポイント、サンプルアウトプットを提供することで、将来の研究者や実践者が事前学習戦略を洗練することを目指している。
論文 参考訳(メタデータ) (2024-12-17T21:15:52Z) - What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Better (pseudo-)labels for semi-supervised instance segmentation [21.703173564795353]
本稿では,教師モデルの訓練プロセスを強化するための2段階戦略を導入し,数発の学習における性能を大幅に向上させる。
我々は,LVISデータセット上での最先端の教師付きベースライン性能に対して,平均精度(AP)が2.8%,レアクラスのAPが10.3%向上し,顕著な改善が見られた。
論文 参考訳(メタデータ) (2024-03-18T11:23:02Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - SwiftLearn: A Data-Efficient Training Method of Deep Learning Models
using Importance Sampling [3.8330834108666667]
ディープラーニングモデルのトレーニングを高速化するデータ効率のよいアプローチとして,SwiftLearnを提案する。
このサブセットは、ウォームアップ段階でデータセット全体にわたって測定された重要基準に基づいて選択される。
我々は、平均精度を0.92%以下に抑えながら、エンドツーエンドの平均スピードアップを3.36倍にすることで、データの90%近くを落とせることを示した。
論文 参考訳(メタデータ) (2023-11-25T22:51:01Z) - Augmenting Unsupervised Reinforcement Learning with Self-Reference [63.68018737038331]
人間は、新しいタスクを学ぶ際に、過去の経験を明確に表現する能力を持っている。
本稿では,歴史情報を活用するためのアドオンモジュールとして,自己参照(SR)アプローチを提案する。
提案手法は,非教師付き強化学習ベンチマークにおけるIQM(Interquartile Mean)性能と最適ギャップ削減の両面から,最先端の成果を実現する。
論文 参考訳(メタデータ) (2023-11-16T09:07:34Z) - Active Self-Semi-Supervised Learning for Few Labeled Samples [4.713652957384158]
アノテーションを限定した深層モデルのトレーニングは、さまざまな実践領域に適用する上で、大きな課題となる。
我々は,シンプルで効果的な自己半教師付き学習(AS3L)を提案する。
擬似ラベル(PPL)を用いたAS3Lブートストラップ半教師付きモデル
我々は,正確なPPLを得るために,能動的学習とラベル伝搬戦略を開発した。
論文 参考訳(メタデータ) (2022-03-09T07:45:05Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Adversarial Robustness: From Self-Supervised Pre-Training to Fine-Tuning [134.15174177472807]
対戦型トレーニングを自己超越に導入し,汎用的な頑健な事前訓練モデルを初めて提供する。
提案するフレームワークが大きなパフォーマンスマージンを達成できることを示すため,広範な実験を行う。
論文 参考訳(メタデータ) (2020-03-28T18:28:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。