論文の概要: Cognitive Models and AI Algorithms Provide Templates for Designing Language Agents
- arxiv url: http://arxiv.org/abs/2602.22523v1
- Date: Thu, 26 Feb 2026 01:35:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.470989
- Title: Cognitive Models and AI Algorithms Provide Templates for Designing Language Agents
- Title(参考訳): 認知モデルとAIアルゴリズムは、言語エージェントを設計するためのテンプレートを提供する
- Authors: Ryan Liu, Dilip Arumugam, Cedegao E. Zhang, Sean Escola, Xaq Pitkow, Thomas L. Griffiths,
- Abstract要約: モジュラー言語エージェントを設計するための潜在的な青写真は、認知モデルやAIアルゴリズムに関する既存の文献に見ることができる。
個々のLSMの役割を規定するエージェントテンプレートの考え方と,それらの機能をどのように構成するかを定式化する。
- 参考スコア(独自算出の注目度): 11.487696671757007
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While contemporary large language models (LLMs) are increasingly capable in isolation, there are still many difficult problems that lie beyond the abilities of a single LLM. For such tasks, there is still uncertainty about how best to take many LLMs as parts and combine them into a greater whole. This position paper argues that potential blueprints for designing such modular language agents can be found in the existing literature on cognitive models and artificial intelligence (AI) algorithms. To make this point clear, we formalize the idea of an agent template that specifies roles for individual LLMs and how their functionalities should be composed. We then survey a variety of existing language agents in the literature and highlight their underlying templates derived directly from cognitive models or AI algorithms. By highlighting these designs, we aim to call attention to agent templates inspired by cognitive science and AI as a powerful tool for developing effective, interpretable language agents.
- Abstract(参考訳): 現代の大規模言語モデル(LLM)は孤立する能力がますます高まっているが、単一のLLMの能力を超える難しい問題がまだたくさんある。
このようなタスクのために、多くのLCMを部品としてどのように組み合わせて、より大きな全体へ組み込むか、まだ不確実である。
このポジションペーパーは、そのようなモジュラー言語エージェントを設計するための潜在的な青写真は、認知モデルと人工知能(AI)アルゴリズムに関する既存の文献に見ることができると主張している。
この点を明確にするために、各LLMの役割を規定するエージェントテンプレートのアイデアと、それらの機能をどのように構成すべきかを定式化する。
次に、文献中のさまざまな言語エージェントを調査し、認知モデルやAIアルゴリズムから直接派生した、基礎となるテンプレートを強調します。
これらのデザインを強調することにより、認知科学やAIに触発されたエージェントテンプレートに注意を向け、効果的で解釈可能な言語エージェントを開発するための強力なツールとなることを目指している。
関連論文リスト
- HELP: Hierarchical Embodied Language Planner for Household Tasks [75.38606213726906]
複雑なシナリオを扱うエージェントは、堅牢な計画能力に大きく依存する。
広範な言語知識を備えた大規模言語モデルは、この役割を果たすことができる。
LLMをベースとした一組のエージェントからなる階層型エンボディード言語プランナーHELPを提案する。
論文 参考訳(メタデータ) (2025-12-25T15:54:08Z) - Continual Learning for Generative AI: From LLMs to MLLMs and Beyond [56.29231194002407]
本稿では,主流生成型AIモデルに対する連続学習手法の総合的な調査を行う。
これらのアプローチをアーキテクチャベース、正規化ベース、リプレイベースという3つのパラダイムに分類する。
我々は、トレーニング目標、ベンチマーク、コアバックボーンを含む、異なる生成モデルに対する連続的な学習設定を分析する。
論文 参考訳(メタデータ) (2025-06-16T02:27:25Z) - Small Language Models are the Future of Agentic AI [42.62162575221445]
スモールランゲージモデル(SLM)は十分に強力であり、本質的にはより適しており、エージェントシステムにおける多くの呼び出しに対して経済的である。
本稿では,エージェントシステムにおけるSLM導入の潜在的な障壁について論じ,汎用LLM-to-SLMエージェント変換アルゴリズムの概要を述べる。
論文 参考訳(メタデータ) (2025-06-02T18:35:16Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Cognitive Architectures for Language Agents [44.89258267600489]
言語エージェントのための認知アーキテクチャ(CoALA)を提案する。
CoALAはモジュラーメモリコンポーネントを備えた言語エージェント、内部メモリと外部環境と相互作用する構造化されたアクションスペース、アクションを選択するための一般的な意思決定プロセスを記述する。
我々は、CoALAを使用して、振り返りによる調査と、最近の多くの作業の組織化を行い、より有能なエージェントに対する行動可能な方向を前向きに特定します。
論文 参考訳(メタデータ) (2023-09-05T17:56:20Z) - TPTU: Large Language Model-based AI Agents for Task Planning and Tool
Usage [28.554981886052953]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションのための強力なツールとして登場した。
LLMの本質的な生成能力は、その長所にもかかわらず、複雑なタスクを扱うには不十分である。
本稿では,LLMベースのAIエージェントに適した構造化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-07T09:22:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。