論文の概要: Can LLMs Translate Human Instructions into a Reinforcement Learning Agent's Internal Emergent Symbolic Representation?
- arxiv url: http://arxiv.org/abs/2510.24259v1
- Date: Tue, 28 Oct 2025 10:13:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.013417
- Title: Can LLMs Translate Human Instructions into a Reinforcement Learning Agent's Internal Emergent Symbolic Representation?
- Title(参考訳): LLMは人間の指示を強化学習エージェントの内部創発的シンボル表現に変換することができるか?
- Authors: Ziqi Ma, Sao Mai Nguyen, Philippe Xu,
- Abstract要約: 大規模言語モデル(LLM)が人間の自然言語命令を内部の記号表現に翻訳できるかどうかを検討する。
本研究では,異なる内部シンボル分割における翻訳性能の測定に構造化評価フレームワークを適用した。
- 参考スコア(独自算出の注目度): 3.7481642886700537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emergent symbolic representations are critical for enabling developmental learning agents to plan and generalize across tasks. In this work, we investigate whether large language models (LLMs) can translate human natural language instructions into the internal symbolic representations that emerge during hierarchical reinforcement learning. We apply a structured evaluation framework to measure the translation performance of commonly seen LLMs -- GPT, Claude, Deepseek and Grok -- across different internal symbolic partitions generated by a hierarchical reinforcement learning algorithm in the Ant Maze and Ant Fall environments. Our findings reveal that although LLMs demonstrate some ability to translate natural language into a symbolic representation of the environment dynamics, their performance is highly sensitive to partition granularity and task complexity. The results expose limitations in current LLMs capacity for representation alignment, highlighting the need for further research on robust alignment between language and internal agent representations.
- Abstract(参考訳): 創発的シンボル表現は、発達学習エージェントがタスクをまたいで計画し、一般化できるようにするために重要である。
本研究では,大規模言語モデル(LLM)が,階層的強化学習中に出現する内的記号表現に人間の自然言語命令を翻訳できるかどうかを検討する。
本稿では,GPT,Claude,Deepseek,GrokなどのLLMの翻訳性能を,Ant MazeおよびAnt Fall環境における階層的強化学習アルゴリズムによって生成された内部的シンボル分割に対して,構造化した評価フレームワークを適用した。
その結果,LLMは自然言語を環境力学の記号表現に変換する能力を示すが,その性能は粒度の分割やタスクの複雑さに非常に敏感であることがわかった。
その結果、表現アライメントのための現在のLLMの容量制限が明らかになり、言語と内部エージェント表現の間の堅牢なアライメントに関するさらなる研究の必要性が浮き彫りになった。
関連論文リスト
- Language Surgery in Multilingual Large Language Models [39.66404344691661]
大規模言語モデル(LLM)はタスクや言語にまたがる顕著な一般化機能を示している。
本稿では, LLMにおける自然に出現する表現アライメント, 特に中層における表現アライメントについて検討する。
Inference-Time Language Control (ITLC) を提案する。
論文 参考訳(メタデータ) (2025-06-14T11:09:50Z) - Explicit Learning and the LLM in Machine Translation [23.7663178803576]
本研究は,文法書に記載された説明を用いて,LLMが新しい言語を学ぶ能力について考察する。
しかし、この能力は、学習する言語現象の複雑さが増加するにつれて低下する。
論文 参考訳(メタデータ) (2025-03-12T14:57:08Z) - A Survey on Sparse Autoencoders: Interpreting the Internal Mechanisms of Large Language Models [50.34089812436633]
大規模言語モデル(LLM)は自然言語処理を変換しているが、その内部メカニズムはほとんど不透明である。
機械的解釈性は、LLMの内部動作を理解する手段として、研究コミュニティから大きな注目を集めている。
スパースオートエンコーダ(SAE)は、LLM内の複雑な重畳された機能をより解釈可能なコンポーネントに分解する能力のために、将来性のある方法として登場した。
論文 参考訳(メタデータ) (2025-03-07T17:38:00Z) - LinguaLens: Towards Interpreting Linguistic Mechanisms of Large Language Models via Sparse Auto-Encoder [47.81850176849213]
スパースオートエンコーダ(SAE)に基づく大規模言語モデルの言語メカニズム解析のためのフレームワークを提案する。
我々は4次元(形態学、構文学、意味論、プラグマティクス)にわたる中国語と英語の言語的特徴を幅広く抽出する。
本研究は, LLMにおける言語知識の内在的表現, 層間および言語間分布のパターンを明らかにし, モデル出力の制御の可能性を示した。
論文 参考訳(メタデータ) (2025-02-27T18:16:47Z) - SR-LLM: Rethinking the Structured Representation in Large Language Model [25.876300810298797]
本稿では,構造化表現を大規模言語モデルと統合する優れた方法を探るため,SR-LLMを提案する。
幅広い下流データセットでは、特にPAWSでは3.17%、12.38%のパフォーマンス向上が見られた。
論文 参考訳(メタデータ) (2025-02-20T08:17:56Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL [78.80673954827773]
大きな言語モデル(LLM)は、言語理解を高め、解釈可能性を改善し、バイアスを減らすために構造化セマンティクスをキャプチャする上で重要な役割を果たす。
セマンティック・ロール・ラベルリング(SRL)を,構造化意味論を抽出するLLMの能力を探るための基本課題として用いることを提案する。
LLMは実際にセマンティック構造をキャプチャすることができ、スケールアップは常にポテンシャルを反映するわけではない。
エラーのかなりの重複は、LLMと訓練されていない人間の両方によって行われ、全てのエラーの約30%を占めることに私たちは驚いています。
論文 参考訳(メタデータ) (2024-05-10T11:44:05Z) - How Proficient Are Large Language Models in Formal Languages? An In-Depth Insight for Knowledge Base Question Answering [52.86931192259096]
知識ベース質問回答(KBQA)は,知識ベースにおける事実に基づいた自然言語質問への回答を目的としている。
最近の研究は、論理形式生成のための大規模言語モデル(LLM)の機能を活用して性能を向上させる。
論文 参考訳(メタデータ) (2024-01-11T09:27:50Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。