論文の概要: Inferring Latent Intentions: Attributional Natural Language Inference in LLM Agents
- arxiv url: http://arxiv.org/abs/2601.08742v1
- Date: Tue, 13 Jan 2026 17:18:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.30565
- Title: Inferring Latent Intentions: Attributional Natural Language Inference in LLM Agents
- Title(参考訳): 潜伏意図の推測:LLMエージェントの帰属的自然言語推論
- Authors: Xin Quan, Jiafeng Xiong, Marco Valentino, André Freitas,
- Abstract要約: 帰属推論は、大きな言語モデルにとって批判的だが未探索の能力である。
帰納的意図推論のためのエージェントの能力を評価するために,NLIを社会心理学の原則で拡張するフレームワークであるAttributional NLIを紹介する。
この結果は,高度な推論能力を持つエージェントの開発において,ATt-NLIが果たす役割を裏付けるものである。
- 参考スコア(独自算出の注目度): 33.140424265055145
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Attributional inference, the ability to predict latent intentions behind observed actions, is a critical yet underexplored capability for large language models (LLMs) operating in multi-agent environments. Traditional natural language inference (NLI), in fact, fails to capture the nuanced, intention-driven reasoning essential for complex interactive systems. To address this gap, we introduce Attributional NLI (Att-NLI), a framework that extends NLI with principles from social psychology to assess an agent's capacity for abductive intentional inference (generating hypotheses about latent intentions), and subsequent deductive verification (drawing valid logical conclusions). We instantiate Att-NLI via a textual game, Undercover-V, experimenting with three types of LLM agents with varying reasoning capabilities and access to external tools: a standard NLI agent using only deductive inference, an Att-NLI agent employing abductive-deductive inference, and a neuro-symbolic Att-NLI agent performing abductive-deductive inference with external theorem provers. Extensive experiments demonstrate a clear hierarchy of attributional inference capabilities, with neuro-symbolic agents consistently outperforming others, achieving an average win rate of 17.08%. Our results underscore the role that Att-NLI can play in developing agents with sophisticated reasoning capabilities, highlighting, at the same time, the potential impact of neuro-symbolic AI in building rational LLM agents acting in multi-agent environments.
- Abstract(参考訳): 属性推論(Attributional Inference)は、観測されたアクションの背後にある潜在意図を予測する能力であり、マルチエージェント環境で動作している大規模言語モデル(LLM)にとって、重要で未探索の能力である。
従来の自然言語推論(NLI)は、実際には複雑な対話システムに不可欠なニュアンスで意図的な推論を捉えていない。
このギャップに対処するために,NLIを社会心理学の原理で拡張したフレームワークであるAtt-NLI(Att-NLI)を導入する。
我々はテキストゲーム『Undercover-V』でAtt-NLIをインスタンス化し、推論能力と外部ツールへのアクセスの異なる3種類のLLMエージェントを実験する: 推論のみを用いた標準NLIエージェント、帰納的推論を用いたAtt-NLIエージェント、外部定理プローバーを用いた帰納的推論を行うニューロシンボリックAtt-NLIエージェント。
広範囲な実験により、帰属推論能力の明確な階層が示され、ニューロシンボリック・エージェントは一貫して他のエージェントより優れ、17.08%の平均的な勝利率を達成した。
以上の結果から,Att-NLIが高度な推論能力を持つエージェントの開発において果たす役割は,同時に,多エージェント環境での合理的なLLMエージェント構築において,ニューロシンボリックAIが潜在的に与える影響を強調した。
関連論文リスト
- IDEA: Enhancing the Rule Learning Ability of Large Language Model Agent through Induction, Deduction, and Abduction [3.961279440272764]
対話型環境下での大規模言語モデルのルール学習能力を評価するためにRULEARNを導入する。
誘導, 誘引, アブダクションのプロセスを統合する新しい推論フレームワークであるIDEAを提案する。
5つの代表的なLCMを含むIDEAフレームワークの評価は,ベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-08-19T23:37:07Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of Language Models with Hypothesis Refinement [92.61557711360652]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。