論文の概要: Large Language Models as General Pattern Machines
- arxiv url: http://arxiv.org/abs/2307.04721v1
- Date: Mon, 10 Jul 2023 17:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 12:12:38.722111
- Title: Large Language Models as General Pattern Machines
- Title(参考訳): 汎用パターンマシンとしての大規模言語モデル
- Authors: Suvir Mirchandani, Fei Xia, Pete Florence, Brian Ichter, Danny Driess,
Montserrat Gonzalez Arenas, Kanishka Rao, Dorsa Sadigh, Andy Zeng
- Abstract要約: 我々は、事前訓練された大規模言語モデル(LLM)が、複雑なトークンシーケンスを自動回帰的に完了することを観察する。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
- 参考スコア(独自算出の注目度): 27.58670584069377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We observe that pre-trained large language models (LLMs) are capable of
autoregressively completing complex token sequences -- from arbitrary ones
procedurally generated by probabilistic context-free grammars (PCFG), to more
rich spatial patterns found in the Abstract Reasoning Corpus (ARC), a general
AI benchmark, prompted in the style of ASCII art. Surprisingly, pattern
completion proficiency can be partially retained even when the sequences are
expressed using tokens randomly sampled from the vocabulary. These results
suggest that without any additional training, LLMs can serve as general
sequence modelers, driven by in-context learning. In this work, we investigate
how these zero-shot capabilities may be applied to problems in robotics -- from
extrapolating sequences of numbers that represent states over time to complete
simple motions, to least-to-most prompting of reward-conditioned trajectories
that can discover and represent closed-loop policies (e.g., a stabilizing
controller for CartPole). While difficult to deploy today for real systems due
to latency, context size limitations, and compute costs, the approach of using
LLMs to drive low-level control may provide an exciting glimpse into how the
patterns among words could be transferred to actions.
- Abstract(参考訳): 事前学習された大規模言語モデル (llm) は、確率的文脈自由文法 (pcfg) による任意のトークン列から、一般的なaiベンチマークであるabstract reasoning corpus (arc) に見られるよりリッチな空間パターンまで、複雑なトークンシーケンスを自己回帰的に完了することができる。
驚くべきことに、配列が語彙からランダムにサンプリングされたトークンを使って表現されたとしても、パターン補完能力は部分的に保持される。
これらの結果から,LLMは文脈内学習によって駆動される汎用シーケンスモデラーとして機能することが示唆された。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。時間とともに状態を表す数列を外挿して単純な動作を完了させたり,クローズドループポリシ(例えばCartPoleの安定化コントローラ)を検出および表現できる報酬条件付き軌道の最小限のプロンプトまで。
レイテンシ、コンテキストサイズ制限、計算コストなどの理由から、今日の実際のシステムへのデプロイは難しいが、低レベルの制御を駆動するためにLLMを使用するアプローチは、単語間のパターンをアクションに転送する方法をエキサイティングに垣間見ることができる。
関連論文リスト
- Directed Exploration in Reinforcement Learning from Linear Temporal Logic [59.707408697394534]
リニア時間論理(LTL)は強化学習におけるタスク仕様のための強力な言語である。
合成された報酬信号は基本的に疎結合であり,探索が困難であることを示す。
我々は、仕様をさらに活用し、それに対応するリミット決定性B"uchi Automaton(LDBA)をマルコフ報酬プロセスとしてキャストすることで、よりよい探索を実現することができることを示す。
論文 参考訳(メタデータ) (2024-08-18T14:25:44Z) - Non-autoregressive Sequence-to-Sequence Vision-Language Models [63.77614880533488]
本稿では,デコーダ内の複数の推論経路をマージする並列デコードシーケンス・ツー・シーケンス・ビジョン言語モデルを提案する。
このモデルは最先端の自己回帰モデルと同等のパフォーマンスを実現するが、推論時間では高速である。
論文 参考訳(メタデータ) (2024-03-04T17:34:59Z) - Language Models as Zero-Shot Trajectory Generators [10.572264780575564]
大規模言語モデル(LLM)は最近、ロボットのハイレベルプランナーとして約束されている。
LLMは低レベルの軌道自体に使用する十分な知識を持っていないとしばしば仮定される。
本研究は,LLMが操作タスクに対して,エンドエフェクタの高密度なシーケンスを直接予測できるかどうかを考察する。
論文 参考訳(メタデータ) (2023-10-17T21:57:36Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Sequential Monte Carlo Steering of Large Language Models using
Probabilistic Programs [46.721838623748816]
本研究では,大規模言語モデルの出力に対する構文的制約と意味的制約を強制する新しい推論時手法を提案する。
主要なアイデアは、言語生成タスクを離散確率列モデルのクラスにおける後部推論問題として指定することである。
ビームサーチと同様の計算コストのために、SMCは多様なタスクを解決するためにLSMを操ることができる。
論文 参考訳(メタデータ) (2023-06-05T17:55:05Z) - Reinforcement Learning with Simple Sequence Priors [9.869634509510016]
圧縮可能な動作列でタスクを解くことを学習するRLアルゴリズムを提案する。
得られたRLアルゴリズムは学習を高速化し、最先端のモデルフリーアプローチよりも高いリターンが得られることを示す。
論文 参考訳(メタデータ) (2023-05-26T17:18:14Z) - Certified Reinforcement Learning with Logic Guidance [78.2286146954051]
線形時間論理(LTL)を用いて未知の連続状態/動作マルコフ決定過程(MDP)のゴールを定式化できるモデルフリーなRLアルゴリズムを提案する。
このアルゴリズムは、トレースが仕様を最大確率で満たす制御ポリシーを合成することが保証される。
論文 参考訳(メタデータ) (2019-02-02T20:09:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。