論文の概要: Sequential Monte Carlo Steering of Large Language Models using
Probabilistic Programs
- arxiv url: http://arxiv.org/abs/2306.03081v2
- Date: Sun, 26 Nov 2023 21:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 15:43:39.301173
- Title: Sequential Monte Carlo Steering of Large Language Models using
Probabilistic Programs
- Title(参考訳): 確率的プログラムを用いた大規模言語モデルの逐次モンテカルロステアリング
- Authors: Alexander K. Lew, Tan Zhi-Xuan, Gabriel Grand, and Vikash K.
Mansinghka
- Abstract要約: 本研究では,大規模言語モデルの出力に対する構文的制約と意味的制約を強制する新しい推論時手法を提案する。
主要なアイデアは、言語生成タスクを離散確率列モデルのクラスにおける後部推論問題として指定することである。
ビームサーチと同様の計算コストのために、SMCは多様なタスクを解決するためにLSMを操ることができる。
- 参考スコア(独自算出の注目度): 46.721838623748816
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Even after fine-tuning and reinforcement learning, large language models
(LLMs) can be difficult, if not impossible, to control reliably with prompts
alone. We propose a new inference-time approach to enforcing syntactic and
semantic constraints on the outputs of LLMs, called sequential Monte Carlo
(SMC) steering. The key idea is to specify language generation tasks as
posterior inference problems in a class of discrete probabilistic sequence
models, and replace standard decoding with sequential Monte Carlo inference.
For a computational cost similar to that of beam search, SMC can steer LLMs to
solve diverse tasks, including infilling, generation under syntactic
constraints, and prompt intersection. To facilitate experimentation with SMC
steering, we present a probabilistic programming library, LLaMPPL
(https://github.com/probcomp/hfppl), for concisely specifying new generation
tasks as language model probabilistic programs, and automating steering of
LLaMA-family Transformers.
- Abstract(参考訳): 微調整と強化学習の後でも、大きな言語モデル(llm)は不可能ではないが、プロンプトだけで確実に制御することは困難である。
連続モンテカルロステアリング(SMC)と呼ばれるLCMの出力に構文的および意味的制約を強制する新しい推論時手法を提案する。
鍵となるアイデアは、言語生成タスクを離散確率系列モデルにおける後続推論問題として指定し、標準復号を逐次モンテカルロ推論に置き換えることである。
ビームサーチと同様の計算コストのために、SMC は LLM を操り、埋め込み、構文制約による生成、交差点の促進など様々なタスクを解くことができる。
smcステアリングの実験を容易にするために、新しい世代のタスクを言語モデル確率プログラムとして簡潔に指定し、llamaファミリートランスフォーマーのステアリングを自動化する、確率的プログラミングライブラリllamppl(https://github.com/probcomp/hfppl)を提案する。
関連論文リスト
- Probabilistic Inference in Language Models via Twisted Sequential Monte Carlo [7.182174507225034]
我々は、確率的推論問題にSequential Monte Carlo (SMC) のリッチツールキットを利用する。
学習されたツイスト関数を用いて、各時点におけるポテンシャルの将来的価値を推定する。
本稿では,言語モデル推論手法の精度を評価する手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T17:18:32Z) - VerMCTS: Synthesizing Multi-Step Programs using a Verifier, a Large Language Model, and Tree Search [5.389248707675898]
大型言語モデル(LLM)は有用なコードを生成することができるが、しばしばそれらが生成するコードは信頼できない。
本稿では,Dafny と Coq で検証プログラムを生成することで,この問題を解決するための VerMCTS を提案する。
論文 参考訳(メタデータ) (2024-02-13T00:55:14Z) - CodeChain: Towards Modular Code Generation Through Chain of Self-revisions with Representative Sub-modules [51.82044734879657]
我々は,自己修正の連鎖を通じてモジュール化されたコード生成を誘発する,新しい推論フレームワークであるCodeChainを提案する。
CodeChainは、生成したソリューションのモジュール性と正確性の両方を大幅に向上させ、APPSで35%、CodeContestsで76%の相対パス@1の改善を実現しています。
論文 参考訳(メタデータ) (2023-10-13T10:17:48Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Language Generation via Combinatorial Constraint Satisfaction: A Tree
Search Enhanced Monte-Carlo Approach [24.897552102098324]
文生成のための制約の指定を可能にするフレームワークを提案する。
本稿では,事前学習した言語モデルに対して,高い確率文を生成する効率的なTSMHを提案する。
このアプローチは非常に柔軟で、タスク固有のトレーニングを必要とせず、効率的な制約満足度解決技術を活用しています。
論文 参考訳(メタデータ) (2020-11-24T19:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。