論文の概要: WHEN TO ACT, WHEN TO WAIT: Modeling Structural Trajectories for Intent Triggerability in Task-Oriented Dialogue
- arxiv url: http://arxiv.org/abs/2506.01881v1
- Date: Mon, 02 Jun 2025 17:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.620876
- Title: WHEN TO ACT, WHEN TO WAIT: Modeling Structural Trajectories for Intent Triggerability in Task-Oriented Dialogue
- Title(参考訳): WHEN to ACT, WHEN to WAIT:タスク指向対話におけるインテントトリガビリティのための構造軌道のモデル化
- Authors: Yaoyao Qian, Jindan Huang, Yuanli Wang, Simon Yu, Kyrie Zhixuan Zhou, Jiayuan Mao, Mingfu Liang, Hanhan Zhou,
- Abstract要約: タスク指向対話システムは、ユーザ発話が意味的に完全であるように見えるが、適切なシステムアクションに必要な構造情報がない場合、しばしば困難に直面する。
我々は、UserLLMとAgentLLMの対話を通して非対称情報ダイナミクスをモデル化するフレームワークSTORMを提案する。
コントリビューションには,(1)対話システムにおける非対称情報処理の形式化,(2)協調理解の進化をモデル化する意図形成,(3)タスクパフォーマンスとともに内部認知改善を測定する評価指標などが含まれている。
- 参考スコア(独自算出の注目度): 13.925217613823264
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Task-oriented dialogue systems often face difficulties when user utterances seem semantically complete but lack necessary structural information for appropriate system action. This arises because users frequently do not fully understand their own needs, while systems require precise intent definitions. Current LLM-based agents cannot effectively distinguish between linguistically complete and contextually triggerable expressions, lacking frameworks for collaborative intent formation. We present STORM, a framework modeling asymmetric information dynamics through conversations between UserLLM (full internal access) and AgentLLM (observable behavior only). STORM produces annotated corpora capturing expression trajectories and latent cognitive transitions, enabling systematic analysis of collaborative understanding development. Our contributions include: (1) formalizing asymmetric information processing in dialogue systems; (2) modeling intent formation tracking collaborative understanding evolution; and (3) evaluation metrics measuring internal cognitive improvements alongside task performance. Experiments across four language models reveal that moderate uncertainty (40-60%) can outperform complete transparency in certain scenarios, with model-specific patterns suggesting reconsideration of optimal information completeness in human-AI collaboration. These findings contribute to understanding asymmetric reasoning dynamics and inform uncertainty-calibrated dialogue system design.
- Abstract(参考訳): タスク指向対話システムは、ユーザ発話が意味的に完全であるように見えるが、適切なシステムアクションに必要な構造情報がない場合、しばしば困難に直面する。
これは、ユーザが自身のニーズを完全に理解していないことが多いためであり、システムは正確な意図の定義を必要とするためである。
現在のLLMベースのエージェントは、言語的に完全かつ文脈的に引き起こされる表現を効果的に区別することができず、協調意図形成のためのフレームワークが欠如している。
我々は、UserLLM(完全な内部アクセス)とAgentLLM(観測可能な振る舞いのみ)の会話を通して非対称情報ダイナミクスをモデル化するフレームワークSTORMを提案する。
STORMは、表現軌跡と潜在認知遷移をキャプチャする注釈付きコーパスを生成し、協調理解開発を体系的に分析することを可能にする。
コントリビューションには,(1)対話システムにおける非対称情報処理の形式化,(2)協調理解の進化をモデル化する意図形成,(3)タスクパフォーマンスとともに内部認知改善を測定する評価指標などが含まれている。
4つの言語モデルに対する実験では、適度な不確実性(40-60%)が特定のシナリオにおける完全な透明性を上回り、モデル固有のパターンは、人間とAIのコラボレーションにおいて最適な情報の完全性を再考することを示唆している。
これらの知見は非対称推論力学の理解に寄与し、不確実性校正された対話システム設計を通知する。
関連論文リスト
- LLM-Assisted Automated Deductive Coding of Dialogue Data: Leveraging Dialogue-Specific Characteristics to Enhance Contextual Understanding [0.0]
本研究では,LLMを用いた対話データの自動符号化手法を開発した。
対話特有の特徴に基づいて発話のコードを予測する。
また,行動予測の精度は事象予測の精度よりも一貫して高かった。
論文 参考訳(メタデータ) (2025-04-28T12:31:38Z) - KnowsLM: A framework for evaluation of small language models for knowledge augmentation and humanised conversations [0.0]
本研究は,LoRAランク,データセットスケール,プレフィックスデザインが知識保持とスタイルアライメントに与える影響について検討する。
LLMに基づく判断は、知識の正確さ、会話の質、簡潔さを考慮し、微調整が音調適応に最も適していることを示し、RAGはリアルタイムの知識増強に優れていた。
論文 参考訳(メタデータ) (2025-04-06T17:58:08Z) - Mechanistic understanding and validation of large AI models with SemanticLens [13.712668314238082]
航空機のような人間工学的なシステムとは異なり、AIモデルの内部動作はほとんど不透明である。
本稿では、コンポーネントによって符号化された隠れた知識をマッピングするニューラルネットワークの普遍的説明法であるSemanticLensを紹介する。
論文 参考訳(メタデータ) (2025-01-09T17:47:34Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Injecting linguistic knowledge into BERT for Dialogue State Tracking [60.42231674887294]
本稿では,教師なしの枠組みを用いて言語知識を抽出する手法を提案する。
次に、この知識を用いて、対話状態追跡(DST)タスクにおけるBERTの性能と解釈可能性を高める。
このフレームワークを様々なDSTタスクでベンチマークし、精度の顕著な改善を観察する。
論文 参考訳(メタデータ) (2023-11-27T08:38:42Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - Robustness Testing of Language Understanding in Dialog Systems [33.30143655553583]
自然言語理解モデルの頑健性に関して総合的な評価と分析を行う。
本稿では,実世界の対話システムにおける言語理解に関連する3つの重要な側面,すなわち言語多様性,音声特性,雑音摂動について紹介する。
対話システムにおける堅牢性問題をテストするための自然摂動を近似するモデル非依存型ツールキットLAUGを提案する。
論文 参考訳(メタデータ) (2020-12-30T18:18:47Z) - Modelling Hierarchical Structure between Dialogue Policy and Natural
Language Generator with Option Framework for Task-oriented Dialogue System [49.39150449455407]
HDNOは、特定の対話行為表現の設計を避けるために潜在対話行為を設計するためのオプションフレームワークである。
RL,LaRL,HDSAで学習した単語レベルE2Eモデルと比較して,マルチドメイン対話のデータセットであるMultiWoz 2.0とMultiWoz 2.1でHDNOをテストする。
論文 参考訳(メタデータ) (2020-06-11T20:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。