論文の概要: Prism: Towards Lowering User Cognitive Load in LLMs via Complex Intent Understanding
- arxiv url: http://arxiv.org/abs/2601.08653v1
- Date: Tue, 13 Jan 2026 15:30:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.259788
- Title: Prism: Towards Lowering User Cognitive Load in LLMs via Complex Intent Understanding
- Title(参考訳): Prism: 複雑なインテント理解によるLLMにおけるユーザ認知負荷の低減
- Authors: Zenghua Liao, Jinzhi Liao, Xiang Zhao,
- Abstract要約: ソーシャルプラットフォームへのWebネイティブインターフェースとして,大規模言語モデルが急速に普及している。
既存のアプローチは、シーケンシャルまたは並列な質問を通じて、ユーザの意図を明確にしようとする。
認知負荷理論に触発されて、複雑な意図理解のための新しいフレームワークであるPrismを提案する。
- 参考スコア(独自算出の注目度): 8.863937298785347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models are rapidly emerging as web-native interfaces to social platforms. On the social web, users frequently have ambiguous and dynamic goals, making complex intent understanding-rather than single-turn execution-the cornerstone of effective human-LLM collaboration. Existing approaches attempt to clarify user intents through sequential or parallel questioning, yet they fall short of addressing the core challenge: modeling the logical dependencies among clarification questions. Inspired by the Cognitive Load Theory, we propose Prism, a novel framework for complex intent understanding that enables logically coherent and efficient intent clarification. Prism comprises four tailored modules: a complex intent decomposition module, which decomposes user intents into smaller, well-structured elements and identifies logical dependencies among them; a logical clarification generation module, which organizes clarification questions based on these dependencies to ensure coherent, low-friction interactions; an intent-aware reward module, which evaluates the quality of clarification trajectories via an intent-aware reward function and leverages Monte Carlo Sample to simulate user-LLM interactions for large-scale,high-quality training data generation; and a self-evolved intent tuning module, which iteratively refines the LLM's logical clarification capability through data-driven feedback and optimization. Prism consistently outperforms existing approaches across clarification interactions, intent execution, and cognitive load benchmarks. It achieves stateof-the-art logical consistency, reduces logical conflicts to 11.5%, increases user satisfaction by 14.4%, and decreases task completion time by 34.8%. All data and code are released.
- Abstract(参考訳): ソーシャルプラットフォームへのWebネイティブインターフェースとして,大規模言語モデルが急速に普及している。
ソーシャルウェブ上では、ユーザはしばしば曖昧でダイナミックな目標を持ち、単一のターンの実行よりも複雑な意図を理解し、効果的な人間とLLMのコラボレーションの基礎となる。
既存のアプローチでは、シーケンシャルまたは並列な質問を通じて、ユーザの意図を明確にしようとするが、中核的な課題、すなわち明確化質問間の論理的依存関係をモデル化する能力に欠ける。
認知的負荷理論(Cognitive Load Theory)に着想を得たPrismは、論理的コヒーレントで効率的な意図の明確化を可能にする複雑な意図理解のための新しいフレームワークである。
Prismは4つのカスタマイズされたモジュールで構成されている: ユーザ意図をより小さく、構造化された要素に分解し、それらの間の論理的依存関係を識別する複雑なインテント分解モジュール、コヒーレントで低フリクションの相互作用を保証するためにこれらの依存関係に基づいて明確化の質問を整理する論理的明確化生成モジュール、インテント認識の報酬関数を通じて明確化のトラジェクトリの質を評価するインテント認識報酬モジュール、大規模で高品質なトレーニングデータ生成のためのユーザ-LLMインタラクションをシミュレートするモンテカルロサンプル、データ駆動のフィードバックと最適化を通じてLLMの論理的明確化機能を反復的に洗練する自己進化インテントチューニングモジュール。
Prismは、明確化インタラクション、インテント実行、認知負荷ベンチマークなど、既存のアプローチよりも一貫して優れています。
最先端の論理的一貫性を達成し、論理的矛盾を11.5%に減らし、ユーザの満足度を14.4%向上させ、タスク完了時間を34.8%短縮する。
すべてのデータとコードはリリースされます。
関連論文リスト
- SEAL: Self-Evolving Agentic Learning for Conversational Question Answering over Knowledge Graphs [28.59157823781425]
SEALは、自己進化型エージェント学習に基づく、2段階のセマンティックパーシングフレームワークである。
SEALは、特にマルチホップ推論、比較、集約タスクにおいて、最先端のパフォーマンスを達成する。
その結果, 構造精度と計算効率の両面で有意な向上が認められた。
論文 参考訳(メタデータ) (2025-12-04T14:52:30Z) - FeClustRE: Hierarchical Clustering and Semantic Tagging of App Features from User Reviews [0.0]
FeClustREは、ハイブリッド機能抽出、階層クラスタリング、自動チューニング、セマンティックラベリングを統合したフレームワークである。
FeClustREを,クラスタリングの品質,セマンティックコヒーレンス,解釈可能性に関するAIアシスタントアプリレビューのサンプル調査と,その正しさの抽出のための公開ベンチマークで評価した。
論文 参考訳(メタデータ) (2025-10-21T16:54:21Z) - CAM: A Constructivist View of Agentic Memory for LLM-Based Reading Comprehension [55.29309306566238]
現在のLarge Language Models (LLM) は、長文文書を解釈する際に圧倒的な情報量に直面している。
この課題は、バニラLSMを自律的な読み出しエージェントに高めることができる凝集性メモリモジュールの必須性を高める。
我々はジャン・ピアジェの構成主義理論(Constructivist Theory)からインスピレーションを得て、エージェントメモリの3つの特性(構造化スキーマ、フレキシブルな同化、動的調節)を表現した。
論文 参考訳(メタデータ) (2025-10-07T02:16:30Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - CLEAR-KGQA: Clarification-Enhanced Ambiguity Resolution for Knowledge Graph Question Answering [13.624962763072899]
KGQAシステムは通常、ユーザクエリは曖昧であると仮定するが、これは現実世界のアプリケーションではめったに行われない仮定である。
本稿では,対話的明確化を通じて,エンティティのあいまいさ(類似した名前を持つエンティティの区別など)と意図のあいまいさ(ユーザクエリの異なる解釈を明確にするなど)を動的に扱う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-13T17:34:35Z) - Iteration of Thought: Leveraging Inner Dialogue for Autonomous Large Language Model Reasoning [0.0]
反復的人間のエンゲージメントは、大規模言語モデル(LLM)の高度な言語処理能力を活用するための一般的かつ効果的な手段である。
思考の反復(IoT)フレームワークを提案する。
静的アプローチや半静的アプローチとは異なり、IoTは進化するコンテキストに基づいて推論パスを動的に適応する。
論文 参考訳(メタデータ) (2024-09-19T09:44:17Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - SwiftSage: A Generative Agent with Fast and Slow Thinking for Complex
Interactive Tasks [81.9962823875981]
我々は、人間の認知の二重プロセス理論に触発された新しいエージェントフレームワークSwiftSageを紹介する。
フレームワークは、高速で直感的な思考を表すSwiftモジュールと、意図的な思考プロセスをエミュレートするSageモジュールの2つの主要なモジュールで構成されている。
ScienceWorldベンチマークの30タスクでは、SwiftSageはSayCan、ReAct、Reflexといった他のメソッドよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-05-27T07:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。