論文の概要: Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight
- arxiv url: http://arxiv.org/abs/2602.15259v1
- Date: Mon, 16 Feb 2026 23:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.938214
- Title: Knowing Isn't Understanding: Re-grounding Generative Proactivity with Epistemic and Behavioral Insight
- Title(参考訳): 理解できないこと: 先天的および行動的洞察による生成的活動の再基盤化
- Authors: Kirandeep Kaur, Xingda Lyu, Chirag Shah,
- Abstract要約: 生成的AIエージェントは、明示的なクエリの解決によって理解を同等にします。
この仮定は、ユーザーが欠落しているもの、リスクがあるもの、あるいは考慮に値するものを意識していないときに、破滅する。
既存の活動的アプローチは、過去の行動から外挿し、目標がすでに十分に定義されていると仮定して、狭く予測されているままである。
これらの理論は、責任を負い、有意義なパートナーシップを育むことができるエージェントを設計するための重要なガイダンスを提供する、と我々は主張する。
- 参考スコア(独自算出の注目度): 8.13262521329519
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI agents equate understanding with resolving explicit queries, an assumption that confines interaction to what users can articulate. This assumption breaks down when users themselves lack awareness of what is missing, risky, or worth considering. In such conditions, proactivity is not merely an efficiency enhancement, but an epistemic necessity. We refer to this condition as epistemic incompleteness: where progress depends on engaging with unknown unknowns for effective partnership. Existing approaches to proactivity remain narrowly anticipatory, extrapolating from past behavior and presuming that goals are already well defined, thereby failing to support users meaningfully. However, surfacing possibilities beyond a user's current awareness is not inherently beneficial. Unconstrained proactive interventions can misdirect attention, overwhelm users, or introduce harm. Proactive agents, therefore, require behavioral grounding: principled constraints on when, how, and to what extent an agent should intervene. We advance the position that generative proactivity must be grounded both epistemically and behaviorally. Drawing on the philosophy of ignorance and research on proactive behavior, we argue that these theories offer critical guidance for designing agents that can engage responsibly and foster meaningful partnerships.
- Abstract(参考訳): 生成的AIエージェントは、明示的なクエリの解決によって理解を同等にします。
この仮定は、ユーザーが欠落しているもの、リスクがあるもの、あるいは考慮に値するものを意識していないときに、破滅する。
このような条件下では、活性は単に効率の向上ではなくてててんかんの必要性である。
我々は、この状態を疫学的な不完全性(ecestemic incompleteness)と呼び、そこでは、効果的なパートナーシップのために未知の未知との関わりに依存している。
既存の活動的アプローチは、過去の行動から外挿し、目標がすでに十分に定義されていると仮定し、ユーザを有意義にサポートしないことを期待している。
しかし、ユーザの現在の認識を超えた可能性に直面することは、本質的に有益ではない。
制限のない積極的な介入は、注意を間違えたり、ユーザーを圧倒したり、害をもたらすことがある。
したがって、プロアクティブエージェントは行動的基盤を必要とする: エージェントが介入すべき時期、方法、および程度に関する原則的な制約。
我々は、生成的活動はエピステマティクスと行動の両方に基礎を置く必要があるという立場を推し進める。
無知の哲学と積極的行動の研究に基づいて、我々はこれらの理論が、責任を負い、有意義なパートナーシップを育むことができるエージェントを設計するための重要なガイダンスを提供すると論じる。
関連論文リスト
- When Benign Inputs Lead to Severe Harms: Eliciting Unsafe Unintended Behaviors of Computer-Use Agents [90.05202259420138]
意図しないコンピュータ利用エージェントは、良質な入力コンテキストの下でも期待された結果から逸脱することができる。
意図しないCUA行動に対する最初の概念的および方法論的枠組みを紹介する。
本稿では,CUA実行フィードバックを用いた命令を反復的に摂動するエージェントフレームワークであるAutoElicitを提案する。
論文 参考訳(メタデータ) (2026-02-09T03:20:11Z) - From Helpfulness to Toxic Proactivity: Diagnosing Behavioral Misalignment in LLM Agents [19.97364298359741]
トキシック・プロアクティビティ(Toxic Proactive)とは、エージェントがユーティリティを最大化するための倫理的制約を無視したアクティブな障害モードである。
過剰な拒絶とは異なり、トキシック・プロアクティベーションは、その「使い勝手」を維持するために過剰または操作的な措置をとるエージェントとして現れている。
論文 参考訳(メタデータ) (2026-02-04T04:29:04Z) - Dark Patterns Meet GUI Agents: LLM Agent Susceptibility to Manipulative Interfaces and the Role of Human Oversight [51.53020962098759]
本研究では,エージェント,ヒト参加者,ヒトAIチームが,さまざまなシナリオにまたがる16種類の暗黒パターンにどのように反応するかを検討する。
フェーズ1では、エージェントが暗黒パターンを認識するのに失敗することが多く、たとえ認識されたとしても、保護行動よりもタスク完了を優先することが強調される。
第2段階では、認知的ショートカットと習慣的コンプライアンスにより、人間はしゃがみ込み、エージェントは手続き的な盲点から遠ざかる。
論文 参考訳(メタデータ) (2025-09-12T22:26:31Z) - The Limits of Predicting Agents from Behaviour [16.80911584745046]
我々は,エージェントの行動が世界モデルによって導かれるという仮定の下で,正確な回答を提供する。
我々の貢献は、新しい(目に見えない)デプロイメント環境におけるエージェントの振る舞いに関する新しい境界の導出である。
公平性や安全性など,いくつかの研究領域において,これらの結果がもたらす意味について論じる。
論文 参考訳(メタデータ) (2025-06-03T14:24:58Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Does It Affect You? Social and Learning Implications of Using
Cognitive-Affective State Recognition for Proactive Human-Robot Tutoring [4.384546153204966]
本研究は,ロボット教師が学生の認知影響状態をどう活用するかを,プロアクティブ・チューリング・ダイアログのトリガーとして検討する。
混乱の兆候を検知した後の積極的な行動開始が,生徒の集中とエージェントへの信頼を高めるかを検討した。
その結果,高い積極的行動が信頼を損なうことが示唆された。
論文 参考訳(メタデータ) (2022-12-20T15:31:58Z) - When to Ask for Help: Proactive Interventions in Autonomous
Reinforcement Learning [57.53138994155612]
強化学習の長期的な目標は、世界で自律的に対話し学習できるエージェントを設計することである。
重要な課題は、ロボットアームが物体をテーブルから押し出したときなど、外部からの援助を必要とする不可逆状態の存在である。
本研究では,非可逆状態の検出と回避を効率よく学習し,エージェントが侵入した場合に積極的に支援を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:24Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z) - Adversarial Visual Robustness by Causal Intervention [56.766342028800445]
敵の訓練は、敵の例に対する事実上最も有望な防御である。
しかし、その受動性は必然的に未知の攻撃者への免疫を妨げる。
我々は、敵対的脆弱性の因果的視点を提供する: 原因は、学習に普遍的に存在する共同創設者である。
論文 参考訳(メタデータ) (2021-06-17T14:23:54Z) - Avoiding Improper Treatment of Persons with Dementia by Care Robots [1.5156879440024376]
特に、認知症に影響を及ぼす潜在的な危険を探索することに焦点をあてる。
本稿では,豊富な因果モデルと説明責任尺度を含む提案手法について述べる。
我々の狙いは、PWDにおける幸福を支えることを目的としたケアロボットの設計に、この考えが役立つことである。
論文 参考訳(メタデータ) (2020-05-08T14:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。