論文の概要: COCORELI: Cooperative, Compositional Reconstitution \& Execution of Language Instructions
- arxiv url: http://arxiv.org/abs/2509.04470v1
- Date: Fri, 29 Aug 2025 11:15:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.305833
- Title: COCORELI: Cooperative, Compositional Reconstitution \& Execution of Language Instructions
- Title(参考訳): COCORELI:協力的, 構成的再構成 : 言語指導の実施
- Authors: Swarnadeep Bhar, Omar Naim, Eleni Metheniti, Bastien Navarri, Loïc Cabannes, Morteza Ezzabady, Nicholas Asher,
- Abstract要約: COCORELIは、大規模言語モデル(LLM)の制限に対処するために設計されたハイブリッドエージェントフレームワークである。
中規模のLLMエージェントに新しい抽象機構と談話モジュールを統合し、環境のダイナミックでハイレベルな表現を学ぶための命令を解析する。
- 参考スコア(独自算出の注目度): 4.862540611672627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present COCORELI, a hybrid agent framework designed to tackle the limitations of large language models (LLMs) in tasks requiring: following complex instructions, minimizing hallucination, and spatial reasoning. COCORELI integrates medium-sized LLM agents with novel abstraction mechanisms and a discourse module to parse instructions to in-context learn dynamic, high-level representations of the environment. Experiments on natural collaborative construction tasks show that COCORELI outperforms single-LLM CoT and agentic LLM systems, all using larger LLMs. It manages to largely avoid hallucinations, identify missing information, ask for clarifications, and update its learned objects. COCORELI's abstraction abilities extend beyond ENVIRONMENT, as shown in the ToolBench API completion task.
- Abstract(参考訳): 複雑な命令に従うこと、幻覚の最小化、空間的推論といったタスクにおいて、大きな言語モデル(LLM)の限界に対処するために設計されたハイブリッドエージェントフレームワークであるCOCORELIを提案する。
COCORELIは、中規模のLLMエージェントを新しい抽象機構と談話モジュールに統合し、インコンテキストで環境の動的でハイレベルな表現を学ぶための命令を解析する。
自然協調型建設作業の実験では、COCORELIは単一LLM CoTとエージェントLLMシステムより優れており、全てより大きなLLMを使用している。
幻覚を回避し、行方不明の情報を識別し、明確化を求め、学習対象を更新する。
CoCORELIの抽象化機能は、ToolBench API補完タスクで示されているように、ENVIRONMENTを超えて拡張される。
関連論文リスト
- Language Agents Meet Causality -- Bridging LLMs and Causal World Models [50.79984529172807]
因果表現学習を大規模言語モデルと統合する枠組みを提案する。
このフレームワークは、自然言語表現に関連付けられた因果変数を持つ因果世界モデルを学ぶ。
本研究では,時間的スケールと環境の複雑さを考慮した因果推論と計画課題の枠組みを評価する。
論文 参考訳(メタデータ) (2024-10-25T18:36:37Z) - Enhancing LLM's Cognition via Structurization [41.13997892843677]
大規模言語モデル(LLM)は因果的かつシーケンシャルな視点で入力コンテキストを処理する。
本稿では,コンテキスト構造化という新しい概念を提案する。
具体的には、平易で秩序のない文脈文を、適切に順序付けされ階層的に構造化された要素に変換する。
論文 参考訳(メタデータ) (2024-07-23T12:33:58Z) - AbsInstruct: Eliciting Abstraction Ability from LLMs through Explanation Tuning with Plausibility Estimation [60.40409210088717]
抽象化能力は人間の知性において不可欠であり、NLP研究における様々なタスクにも有用である。
既存の研究によると、LLMは抽象能力に欠けており、その改善方法はまだ解明されていない。
本稿では,命令チューニングによるLLMの抽象化能力を向上するフレームワークAbsInstructを設計する。
論文 参考訳(メタデータ) (2024-02-16T12:47:11Z) - Recurrent Alignment with Hard Attention for Hierarchical Text Rating [6.858867989434858]
大規模言語モデル(LLM)を利用した階層型テキスト評価のための新しいフレームワークを提案する。
我々のフレームワークは、RAHA(Recurrent Alignment with Hard Attention)を取り入れています。
実験の結果,RAHAは3つの階層的テキスト評価データセットにおいて,既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-14T00:40:51Z) - kNN-ICL: Compositional Task-Oriented Parsing Generalization with Nearest
Neighbor In-Context Learning [50.40636157214161]
Task-Oriented Parsing (TOP)により、会話アシスタントは自然言語で表現されたユーザーコマンドを解釈できる。
LLMは、自然言語のプロンプトに基づいて、コンピュータプログラムにおいて印象的な性能を達成した。
本稿では,LLMのセマンティック解析機能を活用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-17T17:26:50Z) - Can Large Language Models Understand Real-World Complex Instructions? [54.86632921036983]
大型言語モデル(LLM)は人間の指示を理解することができるが、複雑な命令には耐えられない。
既存のベンチマークでは、LLMが複雑な命令を理解する能力を評価するには不十分である。
複雑な命令を体系的に追従するLSMの能力を評価するためのベンチマークであるCellOを提案する。
論文 参考訳(メタデータ) (2023-09-17T04:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。