論文の概要: Procedural Adherence and Interpretability Through Neuro-Symbolic Generative Agents
- arxiv url: http://arxiv.org/abs/2402.16905v2
- Date: Wed, 28 Aug 2024 02:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 21:09:20.799189
- Title: Procedural Adherence and Interpretability Through Neuro-Symbolic Generative Agents
- Title(参考訳): ニューロシンボリック生成剤による手続き的密着性と解釈可能性
- Authors: Raven Rothkopf, Hannah Tongxin Zeng, Mark Santolucito,
- Abstract要約: 本稿では,形式論理に基づくプログラム合成とLCMコンテンツ生成を組み合わせることで,生成エージェントの動作に対する手続き的順守と解釈可能性の保証を実現する。
手続き的付着と解釈可能性の利点を説明するために,エージェントに解釈可能な高レベル時間構造を強制するオートマトンを生成するためにテンポラルストリーム論理(TSL)を用いる。
- 参考スコア(独自算出の注目度): 0.9886108751871757
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The surge in popularity of large language models (LLMs) has opened doors for new approaches to the creation of interactive agents. However, managing and interpreting the temporal behavior of such agents over the course of a potentially infinite interaction remain challenging. The stateful, long-term horizon reasoning required for coherent agent behavior does not fit well into the LLM paradigm. We propose a combination of formal logic-based program synthesis and LLM content generation to bring guarantees of procedural adherence and interpretability to generative agent behavior. To illustrate the benefit of procedural adherence and interpretability, we use Temporal Stream Logic (TSL) to generate an automaton that enforces an interpretable, high-level temporal structure on an agent. With the automaton tracking the context of the interaction and making decisions to guide the conversation accordingly, we can drive content generation in a way that allows the LLM to focus on a shorter context window. We evaluated our approach on different tasks involved in creating an interactive agent specialized for generating choose-your-own-adventure games. We found that over all of the tasks, an automaton-enhanced agent with procedural guarantees achieves at least 96% adherence to its temporal constraints, whereas a purely LLM-based agent demonstrates as low as 14.67% adherence.
- Abstract(参考訳): 大規模言語モデル(LLM)の人気が高まり、対話型エージェントの開発への新たなアプローチの扉が開かれた。
しかし、そのようなエージェントの時間的挙動の管理と解釈は、潜在的に無限の相互作用の過程で難しいままである。
コヒーレントエージェントの動作に必要なステートフルで長期の地平線推論は、LLMパラダイムには適していない。
本稿では,形式論理に基づくプログラム合成とLCMコンテンツ生成を組み合わせることで,生成エージェントの動作に対する手続き的順守と解釈可能性の保証を実現する。
手続き的付着と解釈可能性の利点を説明するために,エージェントに解釈可能な高レベル時間構造を強制するオートマトンを生成するためにテンポラルストリーム論理(TSL)を用いる。
インタラクションのコンテキストを自動で追跡し、それに従って会話をガイドする決定を行うことで、LLMがより短いコンテキストウィンドウに集中できるように、コンテンツ生成を推進できます。
我々は,ゲーム生成に特化した対話型エージェントの開発に関わるさまざまなタスクに対するアプローチを評価した。
すべてのタスクにおいて、手続き的保証を持つオートマトン強化エージェントは、その時間的制約に少なくとも96%の順守を達成するのに対し、LLMベースのエージェントは14.67%の順守を示した。
関連論文リスト
- Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Sub-goal Distillation: A Method to Improve Small Language Agents [21.815417165548187]
大規模言語モデル(LLM)は対話型タスクにおけるエージェントとして大きな可能性を証明している。
数十億のパラメータを持つLLMの性能を、はるかに小さな言語モデルに転送する手法を提案する。
困難かつマルチタスクな対話型テキスト環境であるScienceWorldでは,基本動作のみに基づく標準的な模倣学習を16.7%超えている。
論文 参考訳(メタデータ) (2024-05-04T20:34:06Z) - Enhancing the General Agent Capabilities of Low-Parameter LLMs through Tuning and Multi-Branch Reasoning [56.82041895921434]
オープンソースの事前訓練された大規模言語モデル(LLM)は、強力な言語理解と生成能力を示す。
現実世界の複雑な問題に対処するエージェントとして使用される場合、ChatGPTやGPT-4のような大型の商用モデルに比べてパフォーマンスははるかに劣る。
論文 参考訳(メタデータ) (2024-03-29T03:48:12Z) - Agent-Pro: Learning to Evolve via Policy-Level Reflection and Optimization [53.510942601223626]
大規模言語モデル(LLM)は多様なタスクに対して堅牢な問題解決能力を示す。
これらのタスクソルバは、タスクルールを通知し、行動を調整するために手作業によるプロンプトを必要とする。
本稿では,ポリシーレベルのリフレクションと最適化を備えた LLM ベースのエージェントである Agent-Pro を提案する。
論文 参考訳(メタデータ) (2024-02-27T15:09:20Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Affordable Generative Agents [17.564711490225612]
本研究では,エージェント環境とエージェント間の両方のレベルにおいて,信頼性と低コストのインタラクション生成を可能にするフレームワークを開発する。
複数の環境における大規模な実験により,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2024-02-03T06:16:28Z) - Formal-LLM: Integrating Formal Language and Natural Language for Controllable LLM-based Agents [39.53593677934238]
大規模言語モデル(LLM)により、AIエージェントは複雑なタスクを解決するためのマルチステッププランを自動的に生成し実行することができる。
しかし、現在のLLMベースのエージェントは、しばしば無効または実行不可能な計画を生成する。
本稿では,自然言語の表現性と形式言語の精度を統合することで,LLMをベースとしたエージェントのための新しいフォーマルLLM'フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-01T17:30:50Z) - LLM-Powered Hierarchical Language Agent for Real-time Human-AI
Coordination [28.22553394518179]
人-AI協調のための階層型言語エージェント(HLA)を提案する。
HLAは、リアルタイム実行を維持しながら、強力な推論能力を提供する。
人間の研究では、HLAは他のベースラインエージェントより優れており、スローミンドのみのエージェントやファストミンドのみのエージェントがある。
論文 参考訳(メタデータ) (2023-12-23T11:09:48Z) - Formally Specifying the High-Level Behavior of LLM-Based Agents [24.645319505305316]
LLMはタスク固有の微調整モデルを必要とせずに、課題を解決するための有望なツールとして登場した。
現在、このようなエージェントの設計と実装はアドホックであり、LLMベースのエージェントが自然に適用できる様々なタスクは、エージェント設計に一律に適合するアプローチが存在しないことを意味する。
エージェント構築のプロセスを簡単にする最小主義的生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T17:24:15Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。