論文の概要: Beyond More Context: Retrieval Diversity Boosts Multi-Turn Intent Understanding
- arxiv url: http://arxiv.org/abs/2510.17940v1
- Date: Mon, 20 Oct 2025 16:54:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.425353
- Title: Beyond More Context: Retrieval Diversity Boosts Multi-Turn Intent Understanding
- Title(参考訳): さらなるコンテキストを超えて: 検索の多様性はマルチターンインテント理解を促進する
- Authors: Zhiming Lin,
- Abstract要約: 本稿では,意図のカバレッジと言語的多様性のバランスをとるために,文脈の見地から選択する多様性に配慮した検索フレームワークを提案する。
MultiWOZ 2.4 と SGD では、同じトークン予算下でのジョイントゴール精度が大幅に向上する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi turn intent understanding is central to task oriented chatbots, yet real deployments face tight token budgets and noisy contexts, and most retrieval pipelines emphasize relevance while overlooking set level diversity and confounds such as more context or exemplar order. We ask whether retrieval diversity, rather than longer prompts, systematically improves LLM intent understanding under fixed budgets. We present a diversity aware retrieval framework that selects in context exemplars to balance intent coverage and linguistic variety, and integrates this selection with standard LLM decoders; the evaluation enforces budget matched prompts and randomized positions, and includes sensitivity analyses over exemplar count, diversity strength, and backbone size. On MultiWOZ 2.4 and SGD, the approach achieves strong gains in Joint Goal Accuracy under equal token budgets, surpassing strong LLM/DST baselines, with consistent improvements across K from 4 to 7 and moderate latency. Overall, the study isolates and validates the impact of content diversity in retrieval and offers a simple, deployable selection principle for building accurate, budget constrained multi turn intent systems.
- Abstract(参考訳): マルチターンインテントの理解はタスク指向のチャットボットの中心であるが、実際のデプロイメントではトークンの予算とノイズの多いコンテキストに直面する。
より長いプロンプトよりも検索の多様性が、固定予算下でのLLM意図理解を体系的に改善するかどうかを問う。
本稿では,意図のカバレッジと言語的多様性のバランスを考慮し,この選択を標準LLMデコーダと統合する多様性意識検索フレームワークを提案する。
MultiWOZ 2.4 と SGD では、同じトークン予算下でのジョイントゴール精度が強力な LLM/DST ベースラインを超え、K を 4 から 7 に一貫した改善と適度なレイテンシを実現している。
全体として、検索におけるコンテンツ多様性の影響を分離し、検証し、正確で予算に制約のあるマルチターンインテントシステムを構築するための、シンプルでデプロイ可能な選択原理を提供する。
関連論文リスト
- Jointly Reinforcing Diversity and Quality in Language Model Generations [64.72289248044514]
大規模言語モデル(LM)のポストトレーニングは、しばしば多様性を犠牲にして正確さと役に立つことを優先する。
DARling(Diversity-Aware Reinforcement Learning)は、応答品質とセマンティック多様性を協調的に最適化するフレームワークである。
論文 参考訳(メタデータ) (2025-09-02T17:38:47Z) - Bayesian-Guided Diversity in Sequential Sampling for Recommender Systems [1.675857332621569]
本稿では,多目的・文脈的な逐次サンプリング戦略を活用する新しいフレームワークを提案する。
アイテムの選択は、多様性を最適化するためにスコアを動的に調整するベイジアン更新によってガイドされる。
実世界のデータセットを用いた実験により、我々のアプローチは妥当性を犠牲にすることなく多様性を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-06-22T19:36:02Z) - Reinforcing Video Reasoning with Focused Thinking [65.85683941058916]
本稿では,集中的思考と深い報酬の粒度で視覚的推論を強化する新しいフレームワークであるTW-GRPOを提案する。
具体的には,高情報密度のトークンを優先するトークン重み付け機構を用いる。
また,シングルチョイスからマルチチョイスQAタスクにシフトすることで,RLトレーニングを再構築する。
論文 参考訳(メタデータ) (2025-05-30T15:42:19Z) - Knowledge-Aware Iterative Retrieval for Multi-Agent Systems [0.0]
本稿では,新しい大規模言語モデル (LLM) によるエージェントフレームワークを提案する。
動的に進化する知識を活用することで、クエリを反復的に洗練し、文脈的証拠をフィルタリングする。
提案システムは、更新されたコンテキストの競合的および協調的な共有をサポートする。
論文 参考訳(メタデータ) (2025-03-17T15:27:02Z) - Diversity Enhances an LLM's Performance in RAG and Long-context Task [13.165004097488655]
一般的なアプローチは、クエリに最も近いコンテンツを選択することである。
これはしばしば冗長性と、多様だが関連する情報の排除につながる。
その結果,多様性を取り入れることで,関連文やチャンクの選択のリコールが大幅に増加することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-13T07:11:01Z) - $Se^2$: Sequential Example Selection for In-Context Learning [83.17038582333716]
インコンテキスト学習(ICL)のための大規模言語モデル(LLM)は、実演例によって起動する必要がある。
以前の研究は、主に"select then organize"パラダイムに従って、ICLの例の選択を幅広く検討してきた。
本稿では,この問題を$Se$quential $Se$lection問題として定式化し,シーケンシャル・アウェア法である$Se2$を導入する。
論文 参考訳(メタデータ) (2024-02-21T15:35:04Z) - A Unifying Perspective on Multi-Calibration: Game Dynamics for
Multi-Objective Learning [63.20009081099896]
マルチキャリブレーション予測器の設計と解析のための統一フレームワークを提供する。
ゲームダイナミクスとの接続を利用して,多様なマルチ校正学習問題に対する最先端の保証を実現する。
論文 参考訳(メタデータ) (2023-02-21T18:24:17Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。