論文の概要: Logic Distillation: Learning from Code Function by Function for Planning and Decision-making
- arxiv url: http://arxiv.org/abs/2407.19405v1
- Date: Sun, 28 Jul 2024 05:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 18:22:10.246282
- Title: Logic Distillation: Learning from Code Function by Function for Planning and Decision-making
- Title(参考訳): 論理蒸留:計画と意思決定のための関数によるコード関数からの学習
- Authors: Dong Chen, Shilin Zhang, Fei Gao, Yueting Zhuang, Siliang Tang, Qidong Liu, Mingliang Xu,
- Abstract要約: 大規模言語モデル(LLM)は、その強力な論理的推論能力のために注目を集めている。
知識蒸留(KD)は、L-LLMsの能力をS-LLMsに与えることを目的としており、S-LLMsは単にL-LLMsの出力を模倣するだけである。
本稿では, 論理蒸留 (LD) と呼ばれる新しいフレームワークを提案し, その課題に対処する。
- 参考スコア(独自算出の注目度): 76.78877200879076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have garnered increasing attention owing to their powerful logical reasoning capabilities. Generally, larger LLMs (L-LLMs) that require paid interfaces exhibit significantly superior performance compared to smaller LLMs (S-LLMs) that can be deployed on a variety of devices. Knowledge distillation (KD) aims to empower S-LLMs with the capabilities of L-LLMs, while S-LLMs merely mimic the outputs of L-LLMs, failing to get the powerful logical reasoning capabilities. Consequently, S-LLMs are helpless when it comes to planning and decision-making tasks that require logical reasoning capabilities. To tackle the identified challenges, we propose a novel framework called Logic Distillation (LD). Initially, LD employs L-LLMs to instantiate complex instructions into discrete functions and illustrates their usage to establish a function base. Subsequently, based on the function base, LD fine-tunes S-LLMs to learn the logic employed by L-LLMs in planning and decision-making. During testing, LD utilizes a retriever to identify the top-$K$ relevant functions based on instructions and current states, which will be selected and invoked by S-LLMs. Ultimately, S-LLMs yield planning and decision-making outcomes, function by function. Relevant experiments demonstrate that with the assistance of LD, S-LLMs can achieve outstanding results in planning and decision-making tasks, comparable to, or even surpassing, those of L-LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、その強力な論理的推論能力のために注目を集めている。
一般に、有償インターフェースを必要とするより大きなLLM(L-LLMs)は、様々なデバイスにデプロイできる小さなLLM(S-LLMs)よりもはるかに優れた性能を示す。
知識蒸留(KD)は、L-LLMの能力でS-LLMを増強することを目的としており、S-LLMは単にL-LLMの出力を模倣するだけであり、強力な論理的推論能力を得ることができない。
その結果、S-LLMは論理的推論能力を必要とする計画や意思決定のタスクでは役に立たない。
これらの課題に対処するため,我々は論理蒸留(LD)と呼ばれる新しいフレームワークを提案する。
LDは当初、複雑な命令を離散関数にインスタンス化するためにL-LLMを使用し、関数ベースを確立するためにそれらの使い方を説明している。
その後、関数ベースに基づいて、LDがS-LLMを微調整し、L-LLMが計画と意思決定に使用するロジックを学習する。
テスト中、LDはレトリバーを使用して、S-LLMによって選択され、呼び出される命令と現在の状態に基づいて、上位$K$の関連関数を識別する。
最終的に、S-LLMは計画と意思決定の結果、機能によって得られる。
関連する実験は、LDの助けを借りて、S-LLMは、L-LLMに匹敵する、あるいは超える、計画と意思決定のタスクにおいて、卓越した結果を達成できることを示した。
関連論文リスト
- Embodied Agent Interface: Benchmarking LLMs for Embodied Decision Making [85.24399869971236]
我々は,大規模言語モデル(LLM)を具体的意思決定のために評価することを目指している。
既存の評価は最終的な成功率にのみ依存する傾向がある。
本稿では,様々なタスクの形式化を支援する汎用インタフェース (Embodied Agent Interface) を提案する。
論文 参考訳(メタデータ) (2024-10-09T17:59:00Z) - zsLLMCode: An Effective Approach for Functional Code Embedding via LLM with Zero-Shot Learning [6.976968804436321]
大型言語モデル(LLM)はゼロショット学習の能力を持ち、訓練や微調整を必要としない。
LLMを用いた関数型コード埋め込みを生成する新しいアプローチであるzsLLMCodeを提案する。
論文 参考訳(メタデータ) (2024-09-23T01:03:15Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Can Language Models Pretend Solvers? Logic Code Simulation with LLMs [3.802945676202634]
トランスフォーマーベースの大規模言語モデル(LLM)は、論理問題に対処する上で大きな可能性を示している。
この研究は、論理コードシミュレーションという新しい側面に発展し、論理プログラムの結果を予測するために論理解法をエミュレートするよう LLM に強制する。
論文 参考訳(メタデータ) (2024-03-24T11:27:16Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Exploring Self-supervised Logic-enhanced Training for Large Language Models [59.227222647741094]
本稿では,自己指導型ポストトレーニングによる論理的知識の活用の可能性について検討する。
我々はMERItの自己回帰的目的変数を考案し、パラメータサイズが30億から13億の2つのLLM系列、すなわちFLAN-T5とLLaMAと統合する。
2つの挑戦的な論理的推論ベンチマークの結果は、LogicLLMの有効性を示している。
論文 参考訳(メタデータ) (2023-05-23T06:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。