論文の概要: LLM can Achieve Self-Regulation via Hyperparameter Aware Generation
- arxiv url: http://arxiv.org/abs/2402.11251v1
- Date: Sat, 17 Feb 2024 11:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:38:36.991334
- Title: LLM can Achieve Self-Regulation via Hyperparameter Aware Generation
- Title(参考訳): llmはハイパーパラメータ認識生成による自己制御を実現する
- Authors: Siyin Wang, Shimin Li, Tianxiang Sun, Jinlan Fu, Qinyuan Cheng,
Jiasheng Ye, Junjie Ye, Xipeng Qiu, Xuanjing Huang
- Abstract要約: 大規模言語モデル (LLM) は、生成されたテキストを制御するために様々な復号法を用いる。
LLMはこれらのデコード戦略の存在を意識し、自己統制できるのか?
ハイパーパラメータ・アウェア・ジェネレーション(HAG)と呼ばれる新しいテキスト生成パラダイムを提案する。
- 参考スコア(独自算出の注目度): 88.69052513433603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of Large Language Models (LLMs), users commonly employ diverse
decoding strategies and adjust hyperparameters to control the generated text.
However, a critical question emerges: Are LLMs conscious of the existence of
these decoding strategies and capable of regulating themselves? The current
decoding generation process often relies on empirical and heuristic manual
adjustments to hyperparameters based on types of tasks and demands. However,
this process is typically cumbersome, and the decoding hyperparameters may not
always be optimal for each sample. To address the aforementioned challenges, we
propose a novel text generation paradigm termed Hyperparameter Aware Generation
(HAG). By leveraging hyperparameter-aware instruction tuning, the LLM
autonomously determines the optimal decoding strategy and configs based on the
input samples, enabling self-regulation. Our approach eliminates the need for
extensive manual tuning, offering a more autonomous, self-regulate model
behavior. Experimental results spanning six datasets across reasoning,
creativity, translation, and mathematics tasks demonstrate that
hyperparameter-aware instruction tuning empowers the LLMs to self-regulate the
decoding strategy and hyperparameter. HAG extends the current paradigm in the
text generation process, highlighting the feasibility of endowing the LLMs with
self-regulate decoding strategies.
- Abstract(参考訳): LLM(Large Language Models)の領域では、ユーザは様々なデコード戦略を採用し、生成したテキストを制御するためにハイパーパラメータを調整する。
しかし、批判的な疑問が浮かび上がってくる: LLMはこれらのデコード戦略の存在を意識し、自己統制できるだろうか?
現在のデコード生成プロセスは、しばしば経験的かつヒューリスティックな手動調整をタスクの種類や要求に基づいてハイパーパラメータに頼っている。
しかし、このプロセスは通常面倒であり、デコードハイパーパラメータは各サンプルに対して必ずしも最適とは限らない。
上記の課題に対処するため,我々はハイパーパラメータ認識生成(hag)と呼ばれる新しいテキスト生成パラダイムを提案する。
ハイパーパラメータ対応の命令チューニングを活用することで、LLMは入力サンプルに基づいて最適なデコード戦略と設定を自律的に決定し、自己規制を可能にする。
このアプローチは、より自律的で自己規制型のモデル動作を提供する、広範囲な手動チューニングの必要性を排除します。
推論、創造性、翻訳、数学のタスクにまたがる6つのデータセットにまたがる実験結果から、ハイパーパラメータ対応の命令チューニングによって、LLMはデコード戦略とハイパーパラメータを自己制御できることが示された。
HAGはテキスト生成プロセスにおける現在のパラダイムを拡張し、自己規制デコード戦略でLLMを実現する可能性を強調している。
関連論文リスト
- RGD: Multi-LLM Based Agent Debugger via Refinement and Generation Guidance [0.6062751776009752]
大規模言語モデル(LLM)は、コード生成タスクにおいて驚くべきポテンシャルを示しています。
LLMはタスク記述に基づいてコードを生成することができるが、精度は限られている。
コード生成と自動デバッグのためのLLMエージェントの新しいアーキテクチャ:Refinement and Guidancebug (RGD)を紹介する。
RGDはコード生成タスクを複数のステップに分割し、より明確なワークフローを確保し、自己回帰とフィードバックに基づいた反復的なコード改善を可能にする。
論文 参考訳(メタデータ) (2024-10-02T05:07:02Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Adaptive Draft-Verification for Efficient Large Language Model Decoding [24.347886232342862]
大規模言語モデル(LLM)デコードでは、与えられたコンテキストに基づいてトークンのシーケンスを生成する。
典型的な自己回帰復号法では、生成されたトークンごとに別の前方通過が必要となる。
微調整を必要とせずにLDMデコーディングを高速化するADEDを導入する。
論文 参考訳(メタデータ) (2024-06-27T22:20:39Z) - Adaptable Logical Control for Large Language Models [68.27725600175013]
Ctrl-Gは、推論時にモデル生成のトラクタブルでフレキシブルな制御を容易にする適応可能なフレームワークである。
TULU2-7Bモデルに適用したCtrl-Gは、インタラクティブテキスト編集のタスクにおいて、GPT3.5とGPT4より優れていることを示す。
論文 参考訳(メタデータ) (2024-06-19T23:47:59Z) - Verbalized Machine Learning: Revisiting Machine Learning with Language Models [63.10391314749408]
言語化機械学習(VML)の枠組みを紹介する。
VMLはパラメータ空間を人間の解釈可能な自然言語に制限する。
我々は,VMLの有効性を実証的に検証し,VMLがより強力な解釈可能性を実現するためのステップストーンとして機能することを期待する。
論文 参考訳(メタデータ) (2024-06-06T17:59:56Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Mixture of Soft Prompts for Controllable Data Generation [21.84489422361048]
直接予測ではなく,データ拡張のためのツールとして,ソフトプロンプトの混合(MSP)を提案する。
提案手法は, 強いベースラインと比較した場合の3つのベンチマークに対して, 最先端の結果を得る。
論文 参考訳(メタデータ) (2023-03-02T21:13:56Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。