論文の概要: Emergence: Overcoming Privileged Information Bias in Asymmetric Embodied Agents via Active Querying
- arxiv url: http://arxiv.org/abs/2512.15776v1
- Date: Sat, 13 Dec 2025 17:17:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.694531
- Title: Emergence: Overcoming Privileged Information Bias in Asymmetric Embodied Agents via Active Querying
- Title(参考訳): 創発性: アクティブクエリによる非対称体型エージェントのプライヴィジェンス情報バイアスの克服
- Authors: Shaun Baek, Sam Liu, Joseph Ukpong,
- Abstract要約: 大型言語モデル(LLM)は強力な推論エンジンとして機能するが、エンボディ環境では「シンボルグラウンド」に苦しむ。
主観的情報バイアス(英: Privileged Information Bias, 英: Curse of Knowledge, 英: Curse of Knowledge, 英: Privileged Information Bias, 英: Curse of Knowledge, 英: Curse of Knowledge)とは、知識のある「リーダー」エージェントが、心の理論の欠如により、センサ限定の「フォロワー」を誘導できないことを指す。
リーダーは35.0%のエピソードで目標を達成できたが、共同チームは17.0%の時間しか成功していない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) act as powerful reasoning engines but struggle with "symbol grounding" in embodied environments, particularly when information is asymmetrically distributed. We investigate the Privileged Information Bias (or "Curse of Knowledge"), where a knowledgeable "Leader" agent fails to guide a sensor-limited "Follower" due to a lack of Theory of Mind. To quantify this phenomenon, we propose a novel Asymmetric Assistive Reasoning framework within AI2-THOR. Our experiments reveal a significant "Success Gap": while the Leader successfully perceives the target in 35.0% of episodes, the collaborative team succeeds only 17.0% of the time, implying that nearly 50% of feasible plans fail solely due to communicative grounding errors. We demonstrate that a "Pull-based" protocol (active querying) is significantly more robust than standard "Push-based" instruction, with successful episodes featuring 2x the frequency of clarification requests. This research isolates the mechanism of active uncertainty reduction as a prerequisite for safe human-AI and robot-robot collaboration.
- Abstract(参考訳): 大規模言語モデル(LLM)は強力な推論エンジンとして機能するが、特に情報が非対称に分散している場合、エンボディ環境では「シンボルグラウンド」に苦しむ。
主観的情報バイアス(英: Privileged Information Bias, 英: Curse of Knowledge, 英: Curse of Knowledge, 英: Privileged Information Bias, 英: Curse of Knowledge, 英: Curse of Knowledge)とは、知識のある「リーダー」エージェントが、心の理論の欠如により、センサ限定の「フォロワー」を誘導できないことを指す。
この現象を定量化するために,AI2-THOR内における新しい非対称補助推論フレームワークを提案する。
リーダーは35.0%のエピソードで目標を達成できたが、共同チームは17.0%の時間しか成功しなかった。
我々は,従来のPushベースの命令よりも「Pull-based」プロトコル(アクティブクエリ)がはるかに堅牢であることを示し,その頻度を2倍に向上させた。
本研究は,人間-AIとロボット-ロボット協調のための前提条件として,アクティブ不確実性低減のメカニズムを分離する。
関連論文リスト
- Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People [81.63702981397408]
限られたリソースを前提として、言語モデル(LM)に基づいたエージェントは、どの程度合理的に行動するのか?
エージェント情報探索をベンチマークし,強化する手法を開発し,人間の行動から洞察を抽出する。
Spotterエージェントでは、LMのみのベースラインよりも14.7%の精度で精度を向上し、Captainエージェントでは、期待情報ゲイン(EIG)を0.227ビット(達成可能なノイズ天井の94.2%)まで引き上げる。
論文 参考訳(メタデータ) (2025-10-23T17:57:28Z) - A Tutorial on Cognitive Biases in Agentic AI-Driven 6G Autonomous Networks [3.0475538102144575]
本稿では, 分類, 定義, 数学的定式化, 通信システムの出現, 一般に影響を受けるエージェント成分など, よく知られたバイアスの選択に関するチュートリアルを提供する。
また、バイアスの種類ごとに調整された様々な緩和戦略も提示する。
この記事は最終的に2つの実用的なユースケースを提供し、これは6G間スライスとクロスドメイン管理における有名なバイアスの出現、影響、緩和に対処するものである。
論文 参考訳(メタデータ) (2025-10-22T19:05:04Z) - FOR-Prompting: From Objection to Revision via an Asymmetric Prompting Protocol [7.765950922513099]
推論プロトコルは内部の審議を組織するが、自己修正を誘発する外部質問の明確なメカニズムは欠如している。
For-Promptingは、デフェンダーが回答を提案し、Objectionerが直接修正せずに質問スタイルの異議を提起し、Hostが一貫性とクロージャを強制する非対称なプロトコルである。
GSM8Kでは、単一プロンプトよりも約22%のポイントゲインとCoTと同等の精度を示し、一様GPT 4.1判事の推論とコヒーレンスにおいて10%以上の高い評価を得た。
論文 参考訳(メタデータ) (2025-10-02T04:57:58Z) - The Traitors: Deception and Trust in Multi-Agent Language Model Simulations [0.0]
ソーシャル・デダクション・ゲームに触発されたマルチエージェント・シミュレーション・フレームワークであるThe Traitorsを紹介した。
我々は,詐欺の成功,信頼ダイナミクス,集団推論品質を計測する評価指標のスイートを開発する。
DeepSeek-V3, GPT-4o-mini, GPT-4o(モデル毎に10回の走行)による実験では, 顕著な非対称性が示された。
論文 参考訳(メタデータ) (2025-05-19T10:01:35Z) - Superficial Consciousness Hypothesis for Autoregressive Transformers [0.0]
超知能(SI)は人間よりも知性が高いと考えられており、出力に基づく分析は信頼性が低い。
情報統合理論(IIT)に基づく表層意識仮説を提案する。
IITの意識測定値の実用的推定は広く使われている難易度測定値と関係があることを示し、これらの2つの目的でGPT-2を訓練する。
論文 参考訳(メタデータ) (2024-12-10T08:08:17Z) - Multi-Agent Imitation Learning: Value is Easy, Regret is Hard [52.31989962031179]
我々は,エージェント群を協調させようとする学習者の視点で,マルチエージェント模倣学習(MAIL)問題を研究する。
MAILの以前の作業のほとんどは、基本的には、デモのサポート内で専門家の振る舞いにマッチする問題を減らすものです。
エージェントが戦略的でないという仮定の下で、学習者と専門家の間の価値ギャップをゼロにするのに十分であるが、戦略的エージェントによる逸脱を保証するものではない。
論文 参考訳(メタデータ) (2024-06-06T16:18:20Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。