論文の概要: Threshold Filtering Packing for Supervised Fine-Tuning: Training Related Samples within Packs
- arxiv url: http://arxiv.org/abs/2408.09327v1
- Date: Sun, 18 Aug 2024 01:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 21:19:42.077821
- Title: Threshold Filtering Packing for Supervised Fine-Tuning: Training Related Samples within Packs
- Title(参考訳): 改良ファインチューニングのための閾値フィルタリングパッケージ:パッケージ内の関連サンプルのトレーニング
- Authors: Jiancheng Dong, Lei Jiang, Wei Jin, Lu Cheng,
- Abstract要約: 自己回帰モデルにおけるsupervised Fine-Tuning (SFT) のパッケージングは、最大長に達するまで様々な長さのデータポイントを連結する。
ランダムにデータポイントを連結し、それらを自己回帰変換器に供給すると、対象物に有意な違いがあるため、配列のクロス汚染につながる可能性がある。
我々はThreshold Filtering Packingを導入し、同じパック内で十分な多様性を維持しながら、関連するコンテキストでサンプルを選択する。
- 参考スコア(独自算出の注目度): 10.85875548925946
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Packing for Supervised Fine-Tuning (SFT) in autoregressive models involves concatenating data points of varying lengths until reaching the designed maximum length to facilitate GPU processing. However, randomly concatenating data points and feeding them into an autoregressive transformer can lead to cross-contamination of sequences due to the significant difference in their subject matter. The mainstream approaches in SFT ensure that each token in the attention calculation phase only focuses on tokens within its own short sequence, without providing additional learning signals for the preceding context. To address these challenges, we introduce Threshold Filtering Packing (TFP), a method that selects samples with related context while maintaining sufficient diversity within the same pack. Our experiments show that TFP offers a simple-to-implement and scalable approach that significantly enhances SFT performance, with observed improvements of up to 7\% on GSM8K, 4\% on HumanEval, and 15\% on the adult-census-income dataset.
- Abstract(参考訳): 自動回帰モデルにおけるsupervised Fine-Tuning (SFT)のパッキングは、GPU処理を容易にするために設計された最大長に到達するまで、様々な長さのデータポイントを連結する。
しかし、データポイントをランダムに結合し、それらを自己回帰変換器に供給すると、対象物に有意な違いがあるため、配列のクロス汚染につながる可能性がある。
SFTの主流のアプローチは、注意計算フェーズの各トークンが、前のコンテキストに付加的な学習信号を与えることなく、自身の短いシーケンス内のトークンのみに焦点を当てることを保証する。
これらの課題に対処するために、我々はThreshold Filtering Packing (TFP)を導入し、同じパック内で十分な多様性を維持しながら、関連するコンテキストでサンプルを選択する方法を紹介した。
GSM8Kでは最大7倍,HumanEvalでは4倍,成人センサス所得データセットでは15倍の改善が見られた。
関連論文リスト
- Intuitive Fine-Tuning: Towards Simplifying Alignment into a Single Process [26.196705232699884]
直感的ファインチューニング(IFT)を導入し,SFTと優先度最適化をひとつのプロセスに統合する。
IFTは、SFTのシーケンシャルなレシピやいくつかの典型的なPreference Optimizationメソッドと相容れないか、それ以上に優れている。
説明可能なフロズンレイクゲームは、競争政策を得るためのIFTの有効性をさらに検証する。
論文 参考訳(メタデータ) (2024-05-20T08:23:28Z) - Multiple Instance Learning with random sampling for Whole Slide Image
Classification [0.0]
トレーニング中のパッチのランダムサンプリングは計算的に効率的であり、正規化戦略として機能する。
我々は、CAMELYON16データセットのパッチの30%を使用して、1.7%の最適なパフォーマンス向上と、TUPAC16データセットのたった8つのサンプルで3.7%を見出した。
また,解釈可能性効果はデータセットに依存し,解釈性はCAMELYON16に影響を及ぼすが,TUPAC16には影響しない。
論文 参考訳(メタデータ) (2024-03-08T14:31:40Z) - ALF: Adaptive Label Finetuning for Scene Graph Generation [116.59868289196157]
画像中の被写体と物体の関係を予測するためのシーングラフ生成の試み
関係の長期分布は、しばしば粗いラベルの偏りの予測につながり、SGGにおいて大きなハードルとなる。
我々はSGGに1段階のデータ転送パイプラインを導入し、ALF(Adaptive Label Finetuning)と呼ばれ、追加のトレーニングセッションを不要にする。
ALFは一般的なSGG法であるMotifに比べてmR@100が16%改善され、最先端のIETransに比べて計算コストは6%増加した。
論文 参考訳(メタデータ) (2023-12-29T01:37:27Z) - Enhancing Trade-offs in Privacy, Utility, and Computational Efficiency through MUltistage Sampling Technique (MUST) [3.0939420223851446]
プライバシ・アンプリフィケーション(PA)のためのサブサンプリング手法のクラスを提案する。
本研究は2段階MUST法におけるPA効果と実用性について包括的に解析する。
MUSTの繰り返し適用に関するプライバシー損失構成分析を行う。
論文 参考訳(メタデータ) (2023-12-20T19:38:29Z) - Embarassingly Simple Dataset Distillation [0.0]
本研究は, 2段階最適化問題として直接扱うことにより, その中核におけるデータセットの蒸留に取り組む。
蒸留されたデータの性質を深く掘り下げると、相互相関が明らかになる。
異なるデータ予算にまたがって、ほぼ最適性能のサブセットを含む蒸留データセットを生成するブーピング機構を考案する。
論文 参考訳(メタデータ) (2023-11-13T02:14:54Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Hint-Aug: Drawing Hints from Foundation Vision Transformers Towards
Boosted Few-Shot Parameter-Efficient Tuning [22.0296008705388]
我々はHint-based Data Augmentation(Hint-Aug)というフレームワークを提案する。
事前訓練されたFViTの学習機能により、チューニングサンプルの過度に適合した部分を増強することにより、ファウンデーション・ビジョン・トランスフォーマー(FViT)を数ショットチューニングで強化することを目的としている。
5つのデータセットと3つのパラメータ効率のチューニング技術に関する大規模な実験とアブレーション研究は、ヒント・オーグの有効性を一貫して検証している。
論文 参考訳(メタデータ) (2023-04-25T02:22:01Z) - GFlowNet-EM for learning compositional latent variable models [115.96660869630227]
ラテントの後方のモデリングにおける重要なトレードオフは、表現性とトラクタブルな最適化の間にある。
非正規化密度からサンプリングするアルゴリズムであるGFlowNetsを提案する。
GFlowNetsをトレーニングして、後部から潜伏者へのサンプルをトレーニングすることにより、それらの強度をアモータライズされた変分アルゴリズムとして活用する。
論文 参考訳(メタデータ) (2023-02-13T18:24:21Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Stochastic Optimization with Laggard Data Pipelines [65.20044914532221]
共通最適化手法の「データ抽出」拡張は同期手法よりも優れた性能を示すことを示す。
具体的には、ミニバッチによる凸最適化において、データエコーは、最適統計率を維持しながら収束率の曲率に支配される部分の高速化をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-26T14:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。