論文の概要: Structured Packing in LLM Training Improves Long Context Utilization
- arxiv url: http://arxiv.org/abs/2312.17296v3
- Date: Fri, 2 Feb 2024 20:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 03:45:50.051681
- Title: Structured Packing in LLM Training Improves Long Context Utilization
- Title(参考訳): LLMトレーニングにおける構造化パッケージングによる長期利用の改善
- Authors: Konrad Staniszewski, Szymon Tworkowski, Yu Zhao, Sebastian Jaszczur,
Henryk Michalewski, {\L}ukasz Kuci\'nski, Piotr Mi{\l}o\'s
- Abstract要約: この研究は、意味的相互依存を高めるためのトレーニングデータの構造化が、文脈利用の最適化に有効な戦略であることを示している。
本研究では、情報検索手法を用いて、相互に関連のある文書を単一の学習コンテキストに照合することで、トレーニング例を作成する方法であるStructured Packing for Long Context (SPLiCe)を紹介する。
我々はSPLiCeを大規模な3$Bと7$Bのモデルで実証的に検証し、より複雑な改善と下流タスクにおける長期使用率の向上を示す。
- 参考スコア(独自算出の注目度): 18.474215696128162
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in long-context large language models have attracted
considerable attention. Yet, their real-world applications are often hindered
by ineffective context information use. This work shows that structuring
training data to increase semantic interdependence is an effective strategy for
optimizing context utilization. To this end, we introduce Structured Packing
for Long Context (SPLiCe), a method for creating training examples by using
information retrieval methods to collate mutually relevant documents into a
single training context. We empirically validate SPLiCe on large $3$B and $7$B
models, showing perplexity improvements and better long-context utilization on
downstream tasks. Remarkably, already relatively short fine-tuning with SPLiCe
is enough to attain these benefits. Additionally, the comprehensive study of
SPLiCe reveals intriguing transfer effects such as training on code data
leading to perplexity improvements on text data.
- Abstract(参考訳): 近年の大規模言語モデルの発展は注目を浴びている。
しかし、現実世界のアプリケーションは、しばしば非効率的なコンテキスト情報の使用によって妨げられる。
本研究は,意味的相互依存を高めるためのトレーニングデータの構造化が,文脈利用の最適化に有効な戦略であることを示す。
この目的のために、情報検索手法を用いて、相互に関連のある文書を単一のトレーニングコンテキストに照合することで、トレーニング例を作成する方法であるStructured Packing for Long Context (SPLiCe)を紹介した。
我々はSPLiCeを大規模な3$Bと7$Bのモデルで実証的に検証し、より複雑な改善と下流タスクにおける長期使用率の向上を示す。
注目すべきは、SPLiCeでの比較的短い微調整は、これらのメリットを達成するのに十分です。
さらに、spliceの包括的研究により、テキストデータに対するパープレキシティの改善につながるコードデータのトレーニングのような興味深い転送効果が明らかになった。
関連論文リスト
- Long Context Alignment with Short Instructions and Synthesized Positions [56.1267385315404]
本稿では,ステップスキッピングアライメント(SkipAlign)を紹介する。
これは、Large Language Models(LLMs)の長期コンテキスト機能を強化するために設計された新しい技術である。
ベースモデルとアライメントデータセットを慎重に選択することで、SkipAlignは6Bパラメータだけで最高のパフォーマンスを実現し、LongBenchのGPT-3.5-Turbo-16Kのような強力なベースラインに匹敵する。
論文 参考訳(メタデータ) (2024-05-07T01:56:22Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - Understanding LLMs: A Comprehensive Overview from Training to Inference [52.70748499554532]
大規模言語モデルの低コストなトレーニングと展開は、将来の開発トレンドを表している。
トレーニングに関する議論には、データ前処理、トレーニングアーキテクチャ、事前トレーニングタスク、並列トレーニング、モデル微調整に関連する関連コンテンツなど、さまざまな側面が含まれている。
推論の面では、モデル圧縮、並列計算、メモリスケジューリング、構造最適化などのトピックを取り上げている。
論文 参考訳(メタデータ) (2024-01-04T02:43:57Z) - Effective Long-Context Scaling of Foundation Models [90.57254298730923]
最大32,768個のトークンの効率的なコンテキストウィンドウをサポートする長文LLMを提示する。
我々のモデルは、ほとんどの通常のタスクにおいて一貫した改善を達成し、Llama 2よりも長いコンテキストタスクを大幅に改善します。
論文 参考訳(メタデータ) (2023-09-27T21:41:49Z) - StructGPT: A General Framework for Large Language Model to Reason over
Structured Data [117.13986738340027]
我々は,構造化データに基づく質問応答タスクの解法として,emphIterative Reading-then-Reasoning(IRR)アプローチを開発した。
提案手法はChatGPTの性能を大幅に向上させ,全データの教師付きベースラインに対して同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-16T17:45:23Z) - Pre-Training to Learn in Context [138.0745138788142]
言語モデルが文脈で学習するために明示的に訓練されていないため、コンテキスト内学習の能力は十分に活用されていない。
In-Context Learning のための PICL (Pre-training for In-Context Learning) を提案する。
実験の結果,PICLはベースラインよりも効率が高く,タスクの汎用性が高く,約4倍のパラメータを持つ言語モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-05-16T03:38:06Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。