論文の概要: Dialogue as Discovery: Navigating Human Intent Through Principled Inquiry
- arxiv url: http://arxiv.org/abs/2510.27410v1
- Date: Fri, 31 Oct 2025 12:00:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.09305
- Title: Dialogue as Discovery: Navigating Human Intent Through Principled Inquiry
- Title(参考訳): 発見としての対話: 原則的な質問を通じて人間のインテントをナビゲートする
- Authors: Jianwen Sun, Yukang Feng, Yifan Chang, Chuanhao Li, Zizhen Li, Jiaxin Ai, Fanrui Zhang, Yu Dai, Kaipeng Zhang,
- Abstract要約: 人間とAIのコラボレーションにおける基本的なボトルネックは「意図的表現ギャップ」である
本稿では,ユーザの意図に関する不確実性を解決するために,積極的に情報を探究するエージェントを提案する。
我々は、この調査政策の熟達のために訓練された、提案されたエージェント Nous を命名する。
- 参考スコア(独自算出の注目度): 38.72208780072353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental bottleneck in human-AI collaboration is the "intention expression gap," the difficulty for humans to effectively convey complex, high-dimensional thoughts to AI. This challenge often traps users in inefficient trial-and-error loops and is exacerbated by the diverse expertise levels of users. We reframe this problem from passive instruction following to a Socratic collaboration paradigm, proposing an agent that actively probes for information to resolve its uncertainty about user intent. we name the proposed agent Nous, trained to acquire proficiency in this inquiry policy. The core mechanism of Nous is a training framework grounded in the first principles of information theory. Within this framework, we define the information gain from dialogue as an intrinsic reward signal, which is fundamentally equivalent to the reduction of Shannon entropy over a structured task space. This reward design enables us to avoid reliance on costly human preference annotations or external reward models. To validate our framework, we develop an automated simulation pipeline to generate a large-scale, preference-based dataset for the challenging task of scientific diagram generation. Comprehensive experiments, including ablations, subjective and objective evaluations, and tests across user expertise levels, demonstrate the effectiveness of our proposed framework. Nous achieves leading efficiency and output quality, while remaining robust to varying user expertise. Moreover, its design is domain-agnostic, and we show evidence of generalization beyond diagram generation. Experimental results prove that our work offers a principled, scalable, and adaptive paradigm for resolving uncertainty about user intent in complex human-AI collaboration.
- Abstract(参考訳): 人間とAIのコラボレーションにおける基本的なボトルネックは「意図的表現ギャップ」であり、複雑な高次元の思考をAIに効果的に伝達することが困難である。
この課題は、ユーザが効率の悪い試行錯誤ループに陥り、ユーザの多様な専門レベルによって悪化することが多い。
我々は,この問題を,ソクラティックなコラボレーションパラダイムに従う受動的指導から再編成し,ユーザの意図に関する不確実性を解決するために積極的に情報を探究するエージェントを提案する。
我々は、この調査政策の熟達のために訓練された、提案されたエージェントのノースを命名する。
Nousのコアメカニズムは、情報理論の第一原理に基づくトレーニングフレームワークである。
本枠組みでは,対話から得られる情報ゲインを本質的な報奨信号として定義し,これは基本的に,構造化されたタスク空間上のシャノンエントロピーの低減と等価である。
この報酬設計により、コストのかかる人間の嗜好アノテーションや外部報酬モデルへの依存を避けることができる。
本フレームワークの有効性を検証するため,学術図作成の課題に対して,大規模で嗜好に基づくデータセットを生成するための自動シミュレーションパイプラインを開発した。
提案するフレームワークの有効性を実証するため, 改善, 主観的, 客観的評価, ユーザ専門レベルのテストなど, 総合的な実験を行った。
Nousは、様々なユーザの専門知識に頑健でありながら、主要な効率性と出力品質を達成する。
さらに、その設計はドメインに依存しないものであり、図生成以外の一般化の証拠を示す。
実験結果から、複雑な人間とAIのコラボレーションにおいて、ユーザの意図に関する不確実性を解決するために、私たちの作業が原則的、スケーラブルで適応的なパラダイムを提供することが示された。
関連論文リスト
- The Missing Reward: Active Inference in the Era of Experience [1.9761774213809036]
アクティブ推論(AIF)は、自律型AIエージェントを開発する上で重要な基盤を提供する。
AIFは、自由エネルギーを最小化するために、外部の報酬信号を本質的な駆動に置き換えることができる。
この合成は、計算と物理の両方の制約に固執しながら自律的に開発できるAIシステムへの魅力的な道を提供する。
論文 参考訳(メタデータ) (2025-08-07T17:57:12Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Evaluations at Work: Measuring the Capabilities of GenAI in Use [28.124088786766965]
現在のAIベンチマークは、人間とAIのコラボレーションの混乱したマルチターンの性質を見逃している。
実世界のタスクを相互依存サブタスクに分解する評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-15T23:06:23Z) - The Superalignment of Superhuman Intelligence with Large Language Models [63.96120398355404]
我々は,この疑問に答えるために,学習の観点からスーパーアライメントの概念について議論する。
スーパーアライメントにおけるいくつかの重要な研究課題、すなわち、弱いから強い一般化、スケーラブルな監視、評価に焦点を当てる。
本稿では,学習者モデルの弱点を露呈しようとする敵対的クエリを生成する攻撃者,最小限の人間専門家とともに,批判モデルによって生成されたスケーラブルなフィードバックから学習することで自己を洗練させる学習者,与えられた質問応答対に対する批判や説明を生成する批判者,そして批判によって学習者を改善することを目的とした,3つのモジュールからなるスーパーアライメントの概念的枠組みを提案する。
論文 参考訳(メタデータ) (2024-12-15T10:34:06Z) - Towards Objective and Unbiased Decision Assessments with LLM-Enhanced Hierarchical Attention Networks [6.520709313101523]
本研究では,人的専門家による高い意思決定過程における認知バイアスの識別について検討する。
人間の判断を超越したバイアス対応AI拡張ワークフローを提案する。
実験では,提案モデルとエージェントワークフローの両方が,人間の判断と代替モデルの両方において有意に改善されている。
論文 参考訳(メタデータ) (2024-11-13T10:42:11Z) - Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - What Does The User Want? Information Gain for Hierarchical Dialogue
Policy Optimisation [3.1433893853959605]
強化学習(RL)による最適化は、非効率性と不安定性のサンプリングに影響を受けやすい。
本稿では,この問題に対処するための情報ゲインに基づく本質的な報酬の利用を提案する。
FeudalGainと呼ばれる我々のアルゴリズムは、PyDialフレームワークのほとんどの環境で最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-15T07:21:26Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。