論文の概要: Hansel: Output Length Controlling Framework for Large Language Models
- arxiv url: http://arxiv.org/abs/2412.14033v1
- Date: Wed, 18 Dec 2024 16:52:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 16:49:08.700410
- Title: Hansel: Output Length Controlling Framework for Large Language Models
- Title(参考訳): Hansel: 大規模言語モデルのための出力長制御フレームワーク
- Authors: Seoha Song, Junhyun Lee, Hyeonmok Ko,
- Abstract要約: Hanselは大規模言語モデルにおける長さ制御のための効率的なフレームワークである。
このフレームワークは、モデルの微調整段階において、事前訓練されたLLMに適用することができる。
- 参考スコア(独自算出の注目度): 3.053720182019654
- License:
- Abstract: Despite the great success of large language models (LLMs), efficiently controlling the length of the output sequence still remains a challenge. In this paper, we propose Hansel, an efficient framework for length control in LLMs without affecting its generation ability. Hansel utilizes periodically outputted hidden special tokens to keep track of the remaining target length of the output sequence. Together with techniques to avoid abrupt termination of the output, this seemingly simple method proved to be efficient and versatile, while not harming the coherency and fluency of the generated text. The framework can be applied to any pre-trained LLMs during the finetuning stage of the model, regardless of its original positional encoding method. We demonstrate this by finetuning four different LLMs with Hansel and show that the mean absolute error of the output sequence decreases significantly in every model and dataset compared to the prompt-based length control finetuning. Moreover, the framework showed a substantially improved ability to extrapolate to target lengths unseen during finetuning, such as long dialog responses or extremely short summaries. This indicates that the model learns the general means of length control, rather than learning to match output lengths to those seen during training.
- Abstract(参考訳): 大規模言語モデル (LLM) の大きな成功にもかかわらず、出力シーケンスの長さを効率的に制御することは依然として困難である。
本稿では,LLMにおける長さ制御の効率的なフレームワークであるHanselを提案する。
Hanselは定期的に出力された隠された特別なトークンを使用して、出力シーケンスの残りのターゲットの長さを追跡する。
出力の突然の終了を避ける手法とともに、この一見単純な手法は効率的で汎用性があり、生成したテキストの一貫性や流布性には影響しない。
このフレームワークは、元の位置符号化法にかかわらず、モデルの微調整段階で事前訓練されたLLMに適用することができる。
ハンセルで4種類のLDMを微調整し, 出力シーケンスの平均絶対誤差が各モデル, データセットにおいて, プロンプトベース長制御の微調整に比べて有意に減少することを示した。
さらに、長い対話応答や極めて短い要約など、微調整中に見つからないターゲット長への外挿能力を大幅に改善した。
このことは、トレーニング中に見られるものと出力の長さを一致させる学習ではなく、モデルが長さ制御の一般的な方法を学ぶことを示している。
関連論文リスト
- Zero-Shot Strategies for Length-Controllable Summarization [56.15356055672189]
大規模言語モデル(LLM)は、特にゼロショット設定において、正確な長さ制御に苦しむ。
本研究では, LLMの長さ制御能力を複数の尺度で評価し, 制御性向上のための実用的手法を提案する。
LLaMA 3 を用いて行った実験では,測定値間の長さの密着性の違いが明らかになり,モデル固有のバイアスが強調された。
論文 参考訳(メタデータ) (2024-12-31T02:53:27Z) - Breaking the Context Bottleneck on Long Time Series Forecasting [6.36010639533526]
長期の時系列予測は、経済、エネルギー、輸送における計画と意思決定に不可欠である。
最近の進歩によりこれらのモデルの効率は向上したが、より長いシーケンスを効果的に活用することの難しさは持続している。
長いシーケンスの効率的かつ効率的な処理を実現するために,Logsparse Decomposable Multiscaling (LDM) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-21T10:29:34Z) - Length Controlled Generation for Black-box LLMs [70.57649832433451]
大規模言語モデル (LLM) は印象的な命令に従う能力を示しているが、生成したテキストの長さを正確に管理することは困難である。
本稿では,Metropolis-Hastingsアルゴリズムと重要なサンプリング高速化戦略を組み合わせた,テキスト長制御のための新しい反復サンプリングフレームワークを提案する。
このフレームワークは,Llama3.1における長さ制御の抽象的要約などのタスクに対して,ほぼ100%の成功率を達成する。
論文 参考訳(メタデータ) (2024-12-19T09:07:38Z) - Precise Length Control in Large Language Models [1.3654846342364308]
大規模言語モデル(LLM)は、プロダクションシステムでますます使われている。
本稿では,事前学習したデコーダのみのLCMを応答長の正確な制御に適応させる手法を提案する。
論文 参考訳(メタデータ) (2024-12-16T16:22:27Z) - LongVQ: Long Sequence Modeling with Vector Quantization on Structured Memory [63.41820940103348]
自己保持機構の計算コストは、長いシーケンスの実用性を制限する。
我々はLongVQと呼ばれる新しい手法を提案し、長さ固定されたコードブックとしてグローバルな抽象化を圧縮する。
LongVQは動的グローバルパターンとローカルパターンを効果的に維持し、長距離依存性の問題の欠如を補うのに役立つ。
論文 参考訳(メタデータ) (2024-04-17T08:26:34Z) - InfLLM: Training-Free Long-Context Extrapolation for LLMs with an Efficient Context Memory [93.20588235940453]
本稿では,トレーニング不要なメモリベースのInfLLMを提案する。
InfLLMは、リモートコンテキストを追加のメモリユニットに格納し、トークン関連ユニットを注目するために効率的なメカニズムを使用する。
シーケンス長が$1,024$Kにスケールしても、InfLLMは依然として、長距離依存関係を効果的にキャプチャする。
論文 参考訳(メタデータ) (2024-02-07T06:50:42Z) - Prompt-Based Length Controlled Generation with Reinforcement Learning [48.49553921757085]
本稿では,高精度な長さ制御生成を実現するために,プロンプトベースの長さ制御手法を提案する。
我々は、トレーニング可能なモデルまたはルールベースの報酬モデルによって与えられる報酬信号を用いた強化学習を採用する。
提案手法は,CNNDMやNYTなどの一般的なデータセット上での要約タスクにおいて,プロンプトベースの長さ制御の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2023-08-23T09:43:10Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Summarization with Precise Length Control [23.688834410051]
本稿では,トークン数や文数を正確に指定した要約を生成するフレームワークを提案する。
モデルを協調訓練して長さを予測するので、最適な長さの要約を生成することができる。
論文 参考訳(メタデータ) (2023-05-09T04:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。