論文の概要: Large Language Models Are Neurosymbolic Reasoners
- arxiv url: http://arxiv.org/abs/2401.09334v1
- Date: Wed, 17 Jan 2024 16:57:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 15:12:13.650337
- Title: Large Language Models Are Neurosymbolic Reasoners
- Title(参考訳): 大きな言語モデルは神経シンボリックな推論です
- Authors: Meng Fang, Shilong Deng, Yudi Zhang, Zijing Shi, Ling Chen, Mykola
Pechenizkiy, Jun Wang
- Abstract要約: 本稿では,Large Language Models (LLM) の記号的推論への応用について検討する。
テキストベースのゲーム、自然言語機能を持つエージェントのための重要なベンチマークに重点を置いています。
シンボリックな課題に対処し,ゲーム内での目的を達成するためのLLMエージェントを提案する。
- 参考スコア(独自算出の注目度): 37.71939925248145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A wide range of real-world applications is characterized by their symbolic
nature, necessitating a strong capability for symbolic reasoning. This paper
investigates the potential application of Large Language Models (LLMs) as
symbolic reasoners. We focus on text-based games, significant benchmarks for
agents with natural language capabilities, particularly in symbolic tasks like
math, map reading, sorting, and applying common sense in text-based worlds. To
facilitate these agents, we propose an LLM agent designed to tackle symbolic
challenges and achieve in-game objectives. We begin by initializing the LLM
agent and informing it of its role. The agent then receives observations and a
set of valid actions from the text-based games, along with a specific symbolic
module. With these inputs, the LLM agent chooses an action and interacts with
the game environments. Our experimental results demonstrate that our method
significantly enhances the capability of LLMs as automated agents for symbolic
reasoning, and our LLM agent is effective in text-based games involving
symbolic tasks, achieving an average performance of 88% across all tasks.
- Abstract(参考訳): 幅広い実世界の応用は、その象徴的性質によって特徴づけられ、象徴的推論の強力な能力を必要とする。
本稿では,Large Language Models (LLM) の記号的推論への応用について検討する。
テキストベースのゲーム、自然言語能力を持つエージェントのための重要なベンチマーク、特に数学、地図読解、ソート、テキストベースの世界での常識の適用といった象徴的なタスクに重点を置いています。
これらのエージェントを容易にするために,シンボル的課題に対処し,ゲーム内での目的を達成するLLMエージェントを提案する。
まず LLM エージェントを初期化し,その役割を知らせることから始める。
エージェントは、特定のシンボルモジュールとともに、テキストベースのゲームから観測と有効なアクションのセットを受け取る。
これらの入力により、LLMエージェントはアクションを選択し、ゲーム環境と対話する。
提案手法は,シンボリック推論のための自動エージェントとしてのllmの能力を大幅に向上させ,シンボリックタスクを含むテキストベースのゲームにおいて有効であり,すべてのタスクで平均88%のパフォーマンスを達成することを実証した。
関連論文リスト
- Leveraging the Power of MLLMs for Gloss-Free Sign Language Translation [6.688680877428467]
そこで我々は,Gloss-free Multimodal Sign Language Translationフレームワークを提案する。
マルチモーダルな大言語モデルを用いて手話コンポーネントの詳細なテキスト記述を生成する。
提案手法は,ベンチマークデータセットPHOENIX14TとCSL-Dailyの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T09:01:41Z) - AgentOccam: A Simple Yet Strong Baseline for LLM-Based Web Agents [52.13695464678006]
本研究は, 観察空間と行動空間を簡略化することで, LLMベースのWebエージェントを強化する。
AgentOccam は以前の最先端および同時処理を 9.8 (+29.4%) と 5.9 (+15.8%) で上回っている。
論文 参考訳(メタデータ) (2024-10-17T17:50:38Z) - Can Large Language Models Understand Symbolic Graphics Programs? [136.5639211254501]
シンボリックグラフィックスプログラムはコンピュータグラフィックスで人気がある。
シンボルグラフィックプログラムの意味的視覚的理解のためのベンチマークを作成する。
LLMの推理性能は概して優れていた。
論文 参考訳(メタデータ) (2024-08-15T17:59:57Z) - Symbolic Learning Enables Self-Evolving Agents [55.625275970720374]
エージェントシンボリックラーニング(エージェントシンボリックラーニング)(エージェントシンボリックラーニング)は、言語エージェントが自分自身で最適化できるための体系的なフレームワークである。
エージェント記号学習は、コネクショナリズム学習における2つの基本的なアルゴリズムを模倣することにより、言語エージェント内のシンボルネットワークを最適化するように設計されている。
我々は、標準ベンチマークと複雑な実世界のタスクの両方で概念実証実験を行う。
論文 参考訳(メタデータ) (2024-06-26T17:59:18Z) - On the Effects of Fine-tuning Language Models for Text-Based Reinforcement Learning [19.057241328691077]
テキストベースRLエージェントの効率的な訓練には,意味理解の充実が寄与することを示す。
本稿では,言語モデルの不適切な微調整の結果,意味的変性の発生について述べる。
論文 参考訳(メタデータ) (2024-04-15T23:05:57Z) - A Survey on Large Language Model-Based Game Agents [9.892954815419452]
ゲームエージェントの開発は、人工知能(AGI)に進む上で重要な役割を担っている
本稿では, LLMをベースとしたゲームエージェントについて, 総合的な視点から概観する。
論文 参考訳(メタデータ) (2024-04-02T15:34:18Z) - Exploring Large Language Model based Intelligent Agents: Definitions,
Methods, and Prospects [32.91556128291915]
本稿では, シングルエージェントおよびマルチエージェントシステムにおける知的エージェントの詳細な概要を提供するため, 現在の研究状況について調査する。
定義、研究フレームワーク、その構成、認知と計画方法、ツール利用、環境フィードバックに対する反応などの基礎的な構成要素を網羅する。
我々は、AIと自然言語処理の進化の展望を考慮し、LLMベースのエージェントの展望を思い浮かべて結論付ける。
論文 参考訳(メタデータ) (2024-01-07T09:08:24Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Deciphering Digital Detectives: Understanding LLM Behaviors and
Capabilities in Multi-Agent Mystery Games [26.07074182316433]
本稿では,Jubenshaに特化している最初のデータセットについて紹介する。
我々の研究は、LSMを使ったユニークなマルチエージェントインタラクションフレームワークも提供し、AIエージェントがこのゲームに自律的に関与できるようにする。
これらのAIエージェントのゲーム性能を評価するために,ケース情報と推論スキルの熟達度を測定する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-12-01T17:33:57Z) - Leveraging Word Guessing Games to Assess the Intelligence of Large
Language Models [105.39236338147715]
この論文は人気のある言語ゲーム『Who is Spy』にインスパイアされている。
本研究は,LEMの表現と変形能力を評価するためのDEEPを開発する。
次に、インタラクティブなマルチエージェントフレームワークであるSpyGameを紹介します。
論文 参考訳(メタデータ) (2023-10-31T14:37:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。