論文の概要: Should I Have Expressed a Different Intent? Counterfactual Generation for LLM-Based Autonomous Control
- arxiv url: http://arxiv.org/abs/2601.20090v1
- Date: Tue, 27 Jan 2026 22:18:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.681198
- Title: Should I Have Expressed a Different Intent? Counterfactual Generation for LLM-Based Autonomous Control
- Title(参考訳): 異なる対象を表現すべきだったか? LLMに基づく自律制御のための対実生成
- Authors: Amirmohammad Farzaneh, Salvatore D'Oro, Osvaldo Simeone,
- Abstract要約: 大規模言語モデル(LLM)を利用したエージェントは、高レベルのユーザ意図を環境内の計画や行動に変換することができる。
本稿では,エージェント制御シナリオにおいて,そのような反実的推論を可能にするフレームワークを提案する。
- 参考スコア(独自算出の注目度): 31.47957931665684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language model (LLM)-powered agents can translate high-level user intents into plans and actions in an environment. Yet after observing an outcome, users may wonder: What if I had phrased my intent differently? We introduce a framework that enables such counterfactual reasoning in agentic LLM-driven control scenarios, while providing formal reliability guarantees. Our approach models the closed-loop interaction between a user, an LLM-based agent, and an environment as a structural causal model (SCM), and leverages test-time scaling to generate multiple candidate counterfactual outcomes via probabilistic abduction. Through an offline calibration phase, the proposed conformal counterfactual generation (CCG) yields sets of counterfactual outcomes that are guaranteed to contain the true counterfactual outcome with high probability. We showcase the performance of CCG on a wireless network control use case, demonstrating significant advantages compared to naive re-execution baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したエージェントは、高レベルのユーザ意図を環境内の計画や行動に変換することができる。
しかし、結果を観察した後、ユーザーは疑問を抱くかもしれない。
エージェントLLM駆動制御シナリオにおいて,このような反実的推論を可能にするフレームワークを導入し,信頼性の保証を提供する。
提案手法は, ユーザ, LLM エージェント, 環境間のクローズドループ相互作用を構造因果モデル (SCM) としてモデル化し, テスト時間スケーリングを活用し, 確率的アブダクション(英語版)により複数の候補反事実結果を生成する。
オフラインキャリブレーションフェーズを通じて、提案された共形反事実生成(CCG)は、真の反事実生成を高い確率で含むことが保証される反事実生成のセットを生成する。
我々は,無線ネットワーク制御のユースケースにおけるCCGの性能を実証し,単純な再実行ベースラインに比べて大きな利点を示した。
関連論文リスト
- Fact-Checking with Large Language Models via Probabilistic Certainty and Consistency [7.806516365113592]
大規模言語モデル(LLM)は、事実の正確性を必要とするアプリケーションでますます使われている。
事実チェックはこれらのエラーを軽減することができるが、既存の手法は通常、外的証拠を無差別に回収する。
本稿では,確率的確実性と一貫性(PCC)について紹介する。
論文 参考訳(メタデータ) (2026-01-05T21:57:41Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - Steerable Adversarial Scenario Generation through Test-Time Preference Alignment [58.37104890690234]
対立シナリオ生成は、自律運転システムの安全性評価のためのコスト効率の良いアプローチである。
textbfSteerable textbfAdversarial scenario textbfGEnerator (SAGE) という新しいフレームワークを導入する。
SAGEは、逆境とリアリズムの間のトレードオフを、再トレーニングなしできめ細かいテストタイムコントロールを可能にします。
論文 参考訳(メタデータ) (2025-09-24T13:27:35Z) - AgentMisalignment: Measuring the Propensity for Misaligned Behaviour in LLM-Based Agents [0.0]
大規模言語モデル (LLM) エージェントはより広く普及し、関連するミスアライメントリスクが増加する。
本研究では,モデルが追求する内部目標と,デプロイ者の意図する目標との相反として,不整合にアプローチする。
現実的なシナリオにおいて,LLMエージェントの適合性を評価するためのベンチマークスイートであるtextscAgentMisalignmentを導入する。
論文 参考訳(メタデータ) (2025-06-04T14:46:47Z) - Leveraging LLM Inconsistency to Boost Pass@k Performance [3.797421474324735]
大規模言語モデル(LLM)は、多くのドメインにおいて印象的な能力を発揮するが、マイナーな入力変更に対する不整合性を示す。
本稿では,Pass@kの性能向上にモデルの不整合を利用した新しい手法を提案する。
具体的には、与えられたタスクのk変種を生成し、各タスクに対して1つの候補解を提出する「変数」エージェントを提案する。
論文 参考訳(メタデータ) (2025-05-19T10:22:04Z) - Scalable Best-of-N Selection for Large Language Models via Self-Certainty [75.1351701045874]
Best-of-N selectionは、Large Language Models(LLMs)の推論性能を改善するための重要なテクニックである。
本稿では, LLM出力の固有確率分布を利用して, 外部報酬モデルを必要としない応答品質を推定する, 新規で効率的な指標である自己確実性を提案する。
本研究は, LLM推論能力を向上させるための実用的で効率的な方法として, 自己確実性を確立した。
論文 参考訳(メタデータ) (2025-02-25T19:08:07Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Self-Evaluation Improves Selective Generation in Large Language Models [54.003992911447696]
オープンエンド生成タスクをトークンレベルの予測タスクに再構成する。
我々はLSMに答えを自己評価するように指示する。
自己評価に基づくスコアリング手法をベンチマークする。
論文 参考訳(メタデータ) (2023-12-14T19:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。