論文の概要: A Behavioural and Representational Evaluation of Goal-Directedness in Language Model Agents
- arxiv url: http://arxiv.org/abs/2602.08964v1
- Date: Mon, 09 Feb 2026 18:00:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.41127
- Title: A Behavioural and Representational Evaluation of Goal-Directedness in Language Model Agents
- Title(参考訳): 言語モデルエージェントにおけるゴール指向性の行動的・表現的評価
- Authors: Raghu Arghal, Fade Chen, Niall Dalton, Evgenii Kortukov, Calum McNamara, Angelos Nalmpantis, Moksh Nirvaan, Gabriele Sarti, Mario Giulianelli,
- Abstract要約: 本稿では,行動評価と解釈可能性に基づくモデルの内部表現の分析を統合した目標指向性評価フレームワークを提案する。
我々は,様々なグリッドサイズ,障害物密度,目標構造にまたがる最適政策に対するエージェントの評価を行った。
次に、エージェントの内部表現の環境状態とマルチステップアクション計画のデコードにプローブ法を用いる。
- 参考スコア(独自算出の注目度): 8.007212170802807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding an agent's goals helps explain and predict its behaviour, yet there is no established methodology for reliably attributing goals to agentic systems. We propose a framework for evaluating goal-directedness that integrates behavioural evaluation with interpretability-based analyses of models' internal representations. As a case study, we examine an LLM agent navigating a 2D grid world toward a goal state. Behaviourally, we evaluate the agent against an optimal policy across varying grid sizes, obstacle densities, and goal structures, finding that performance scales with task difficulty while remaining robust to difficulty-preserving transformations and complex goal structures. We then use probing methods to decode the agent's internal representations of the environment state and its multi-step action plans. We find that the LLM agent non-linearly encodes a coarse spatial map of the environment, preserving approximate task-relevant cues about its position and the goal location; that its actions are broadly consistent with these internal representations; and that reasoning reorganises them, shifting from broader environment structural cues toward information supporting immediate action selection. Our findings support the view that introspective examination is required beyond behavioural evaluations to characterise how agents represent and pursue their objectives.
- Abstract(参考訳): エージェントの目標を理解することは、その振る舞いの説明と予測に役立ちますが、エージェントシステムに確実に目標をもたらすための確立した方法論はありません。
本稿では,行動評価と解釈可能性に基づくモデルの内部表現の分析を統合した目標指向性評価フレームワークを提案する。
ケーススタディでは,LLMエージェントが目標状態に向かって2次元グリッド世界をナビゲートする方法について検討する。
本研究では,様々なグリッドサイズ,障害物密度,目標構造にまたがる最適政策に対するエージェントの評価を行った。
次に、エージェントの内部表現の環境状態とマルチステップアクション計画のデコードにプローブ法を用いる。
LLMエージェントは、環境の粗い空間マップを非線形に符号化し、その位置と目標位置に関するおよそのタスク関連キューを保存し、その動作がこれらの内部表現と広範囲に一致していること、そして推論がそれらを再編成し、より広い環境構造的キューから即時行動選択を支援する情報へと移行することを発見した。
本研究は, エージェントが目的をどう表現し, 追求するかを特徴付けるために, 行動評価以上の検査が必要であるという見解を支持する。
関連論文リスト
- Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - What Do LLM Agents Know About Their World? Task2Quiz: A Paradigm for Studying Environment Understanding [50.35012849818872]
大規模言語モデル(LLM)エージェントは、複雑な意思決定やツール使用タスクにおいて顕著な能力を示した。
本研究では,タスク実行と世界状態理解の分離を目的とした決定論的かつ自動評価パラダイムであるTask-to-Quiz(T2Q)を提案する。
実験の結果,タスク成功は環境理解の指標として不十分な場合が多く,現在の記憶機構はエージェントが環境の基底モデルを取得するのに有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2026-01-14T14:09:11Z) - PosA-VLA: Enhancing Action Generation via Pose-Conditioned Anchor Attention [92.85371254435074]
PosA-VLAフレームワークは、ポーズ条件付き監視を通じて視覚的注意を保ち、タスク関連領域に対するモデルの認識を一貫して導く。
本手法は,多様なロボット操作ベンチマークにおいて,正確かつ時間効率のよい動作を実施できることを示す。
論文 参考訳(メタデータ) (2025-12-03T12:14:29Z) - Goal-Directedness is in the Eye of the Beholder [48.937781898861815]
ゴール指向の行動の探索には,2つのフレーバーがある。
エージェントシステムにおけるゴールの定式化から生じる技術的および概念的問題を特定する。
本稿では,動的マルチエージェントシステムの創発的特性として,ゴール指向性をモデル化するための新たな方向性について概説する。
論文 参考訳(メタデータ) (2025-08-18T11:04:18Z) - Adaptive Target Localization under Uncertainty using Multi-Agent Deep Reinforcement Learning with Knowledge Transfer [15.605693371392212]
本研究は,不確実環境におけるターゲット位置推定のためのMADRLに基づく新しい手法を提案する。
エージェントの観察は、環境に不可欠な情報を捉えるために最適化された方法で設計されている。
ディープラーニングモデルは、MADRLモデルからの知識に基づいて、到達不可能な場合のターゲット位置を正確に推定する。
論文 参考訳(メタデータ) (2025-01-19T02:58:22Z) - Improving Zero-Shot ObjectNav with Generative Communication [60.84730028539513]
ゼロショットObjectNavの改良手法を提案する。
私たちのアプローチは、接地エージェントが制限され、時には障害のあるビューを持つ可能性があることを考慮に入れています。
論文 参考訳(メタデータ) (2024-08-03T22:55:26Z) - Goal Recognition Design for General Behavioral Agents using Machine Learning [18.19703033857065]
目標認識設計(GRD)は、意思決定環境への限定的な修正を目標とし、それらの環境内で行動するエージェントの目標の推測を容易にする。
機械学習手法を目標認識設計に活用し、実行時の効率を改善し、一般的な行動モデルを持つエージェントを考慮に入れます。
論文 参考訳(メタデータ) (2024-04-03T20:38:22Z) - Discrete Factorial Representations as an Abstraction for Goal
Conditioned Reinforcement Learning [99.38163119531745]
離散化ボトルネックを適用することにより,目標条件付きRLセットアップの性能が向上することを示す。
分布外目標に対する期待した回帰を実験的に証明し、同時に表現的な構造で目標を指定できるようにします。
論文 参考訳(メタデータ) (2022-11-01T03:31:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。