論文の概要: WHEN TO ACT, WHEN TO WAIT: Modeling the Intent-Action Alignment Problem in Dialogue
- arxiv url: http://arxiv.org/abs/2506.01881v2
- Date: Sat, 23 Aug 2025 18:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 16:37:41.209396
- Title: WHEN TO ACT, WHEN TO WAIT: Modeling the Intent-Action Alignment Problem in Dialogue
- Title(参考訳): WHEN to ACT, WHEN to WAIT:対話における意図的行動アライメント問題のモデル化
- Authors: Yaoyao Qian, Jindan Huang, Yuanli Wang, Simon Yu, Kyrie Zhixuan Zhou, Jiayuan Mao, Mingfu Liang, Hanhan Zhou,
- Abstract要約: 対話システムは、ユーザ発話が意味論的に完全であると同時に、適切なシステムアクションに必要な明快さと完全さが欠如している場合に失敗することが多い。
我々は、UserLLMとAgentLLMの対話を通して非対称情報ダイナミクスをモデル化するフレームワークSTORMを提案する。
コントリビューションには,(1)対話システムにおける非対称情報処理の形式化,(2)協調理解の進化をモデル化する意図形成,(3)タスクパフォーマンスとともに内部認知改善を測定する評価指標などが含まれている。
- 参考スコア(独自算出の注目度): 23.39224016484548
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Dialogue systems often fail when user utterances are semantically complete yet lack the clarity and completeness required for appropriate system action. This mismatch arises because users frequently do not fully understand their own needs, while systems require precise intent definitions. This highlights the critical Intent-Action Alignment Problem: determining when an expression is not just understood, but truly ready for a system to act upon. We present STORM, a framework modeling asymmetric information dynamics through conversations between UserLLM (full internal access) and AgentLLM (observable behavior only). STORM produces annotated corpora capturing trajectories of expression phrasing and latent cognitive transitions, enabling systematic analysis of how collaborative understanding develops. Our contributions include: (1) formalizing asymmetric information processing in dialogue systems; (2) modeling intent formation tracking collaborative understanding evolution; and (3) evaluation metrics measuring internal cognitive improvements alongside task performance. Experiments across four language models reveal that moderate uncertainty (40-60%) can outperform complete transparency in certain scenarios, with model-specific patterns suggesting reconsideration of optimal information completeness in human-AI collaboration. These findings contribute to understanding asymmetric reasoning dynamics and inform uncertainty-calibrated dialogue system design.
- Abstract(参考訳): 対話システムは、ユーザ発話が意味論的に完全であるときに失敗するが、適切なシステムアクションに必要な明快さと完全性は欠如している。
このミスマッチは、ユーザが自身のニーズを十分に理解していない場合が多く、システムは正確な意図の定義を必要とするため発生する。
これは、重要なIntent-Actionalignment問題(リンク)を強調している。
我々は、UserLLM(完全な内部アクセス)とAgentLLM(観測可能な振る舞いのみ)の会話を通して非対称情報ダイナミクスをモデル化するフレームワークSTORMを提案する。
STORMは、表現表現と潜在認知遷移の軌跡を捉えた注釈付きコーパスを生成し、協調的理解の発達の体系的な分析を可能にする。
コントリビューションには,(1)対話システムにおける非対称情報処理の形式化,(2)協調理解の進化をモデル化する意図形成,(3)タスクパフォーマンスとともに内部認知改善を測定する評価指標などが含まれている。
4つの言語モデルに対する実験では、適度な不確実性(40-60%)が特定のシナリオにおける完全な透明性を上回り、モデル固有のパターンは、人間とAIのコラボレーションにおいて最適な情報の完全性を再考することを示唆している。
これらの知見は非対称推論力学の理解に寄与し、不確実性校正された対話システム設計を通知する。
関連論文リスト
- Teaching Language Models To Gather Information Proactively [53.85419549904644]
大規模言語モデル(LLM)は、ますます協力的なパートナーとして機能することが期待されている。
本研究では,アクティブな情報収集という新たなタスクパラダイムを導入する。
キー情報をマスキングする、部分的に特定された現実世界のタスクを生成するスケーラブルなフレームワークを設計する。
このセットアップの中核となるイノベーションは、真に新しい暗黙のユーザー情報を引き出す質問に報酬を与える、強化された微調整戦略です。
論文 参考訳(メタデータ) (2025-07-28T23:50:09Z) - UniConv: Unifying Retrieval and Response Generation for Large Language Models in Conversations [71.79210031338464]
会話における大規模言語モデルに対する高密度検索と応答生成の統一方法を示す。
目的の異なる共同微調整を行い、不整合リスクを低減するための2つのメカニズムを設計する。
5つの対話型検索データセットの評価は、我々の統合モデルがタスクを相互に改善し、既存のベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2025-07-09T17:02:40Z) - Emotionally Intelligent Task-oriented Dialogue Systems: Architecture, Representation, and Optimisation [5.568911171405307]
タスク指向対話(ToD)システムは、自然言語による対話を通じてユーザが特定の目標を達成するのを支援するように設計されている。
ToDシステムのアーキテクチャ、表現、最適化、および感情的考察について検討する。
textbfLLM-based textbfUnified textbfSystem for textbfTask-oriented dialogue with textbfEnd-to-end textbfReinforcement Learning with both short-term (user)を提案する。
論文 参考訳(メタデータ) (2025-07-02T11:00:33Z) - LLM-Assisted Automated Deductive Coding of Dialogue Data: Leveraging Dialogue-Specific Characteristics to Enhance Contextual Understanding [0.0]
本研究では,LLMを用いた対話データの自動符号化手法を開発した。
対話特有の特徴に基づいて発話のコードを予測する。
また,行動予測の精度は事象予測の精度よりも一貫して高かった。
論文 参考訳(メタデータ) (2025-04-28T12:31:38Z) - KnowsLM: A framework for evaluation of small language models for knowledge augmentation and humanised conversations [0.0]
本研究は,LoRAランク,データセットスケール,プレフィックスデザインが知識保持とスタイルアライメントに与える影響について検討する。
LLMに基づく判断は、知識の正確さ、会話の質、簡潔さを考慮し、微調整が音調適応に最も適していることを示し、RAGはリアルタイムの知識増強に優れていた。
論文 参考訳(メタデータ) (2025-04-06T17:58:08Z) - Mechanistic understanding and validation of large AI models with SemanticLens [13.712668314238082]
航空機のような人間工学的なシステムとは異なり、AIモデルの内部動作はほとんど不透明である。
本稿では、コンポーネントによって符号化された隠れた知識をマッピングするニューラルネットワークの普遍的説明法であるSemanticLensを紹介する。
論文 参考訳(メタデータ) (2025-01-09T17:47:34Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - Robustness Testing of Language Understanding in Dialog Systems [33.30143655553583]
自然言語理解モデルの頑健性に関して総合的な評価と分析を行う。
本稿では,実世界の対話システムにおける言語理解に関連する3つの重要な側面,すなわち言語多様性,音声特性,雑音摂動について紹介する。
対話システムにおける堅牢性問題をテストするための自然摂動を近似するモデル非依存型ツールキットLAUGを提案する。
論文 参考訳(メタデータ) (2020-12-30T18:18:47Z) - Modelling Hierarchical Structure between Dialogue Policy and Natural
Language Generator with Option Framework for Task-oriented Dialogue System [49.39150449455407]
HDNOは、特定の対話行為表現の設計を避けるために潜在対話行為を設計するためのオプションフレームワークである。
RL,LaRL,HDSAで学習した単語レベルE2Eモデルと比較して,マルチドメイン対話のデータセットであるMultiWoz 2.0とMultiWoz 2.1でHDNOをテストする。
論文 参考訳(メタデータ) (2020-06-11T20:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。