論文の概要: Do Large Language Models Need Intent? Revisiting Response Generation Strategies for Service Assistant
- arxiv url: http://arxiv.org/abs/2509.05006v1
- Date: Fri, 05 Sep 2025 11:13:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.572067
- Title: Do Large Language Models Need Intent? Revisiting Response Generation Strategies for Service Assistant
- Title(参考訳): 大規模言語モデルにはインテントが必要か? : サービスアシスタントに対する応答生成戦略の再検討
- Authors: Inbal Bolshinsky, Shani Kupiec, Almog Sasson, Yehudit Aperstein, Alexander Apartsin,
- Abstract要約: 明確な意図認識は、高品質なサービス応答を生成するための前提条件なのだろうか?
本稿では,この基本設計ジレンマに対処するための厳密な比較研究を行う。
我々は、Intent-First Response GenerationとDirect Response Generationの2つのパラダイムにわたって、微調整されたT5変種を含む、最先端の言語モデルをベンチマークする。
- 参考スコア(独自算出の注目度): 37.86790434630698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of conversational AI, generating accurate and contextually appropriate service responses remains a critical challenge. A central question remains: Is explicit intent recognition a prerequisite for generating high-quality service responses, or can models bypass this step and produce effective replies directly? This paper conducts a rigorous comparative study to address this fundamental design dilemma. Leveraging two publicly available service interaction datasets, we benchmark several state-of-the-art language models, including a fine-tuned T5 variant, across both paradigms: Intent-First Response Generation and Direct Response Generation. Evaluation metrics encompass both linguistic quality and task success rates, revealing surprising insights into the necessity or redundancy of explicit intent modelling. Our findings challenge conventional assumptions in conversational AI pipelines, offering actionable guidelines for designing more efficient and effective response generation systems.
- Abstract(参考訳): 会話型AIの時代において、正確でコンテキスト的に適切なサービス応答を生成することは、依然として重要な課題である。
明示的な意図認識は、高品質なサービス応答を生成するための前提条件なのだろうか、あるいは、このステップをバイパスして、効果的な応答を直接生成できるだろうか?
本稿では,この基本設計ジレンマに対処するための厳密な比較研究を行う。
2つのパブリックなサービスインタラクションデータセットを活用することで、Intent-First Response GenerationとDirect Response Generationという2つのパラダイムにわたって、微調整されたT5変種を含む、最先端の言語モデルをベンチマークします。
評価指標は言語的品質とタスクの成功率の両方を含み、明示的な意図モデリングの必要性や冗長性に関する驚くべき洞察を明らかにする。
我々の研究は、会話型AIパイプラインにおける従来の仮定に挑戦し、より効率的で効果的な応答生成システムを設計するための実用的なガイドラインを提供する。
関連論文リスト
- SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation [54.66399120084227]
大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
論文 参考訳(メタデータ) (2023-05-18T17:23:00Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Learning a Simple and Effective Model for Multi-turn Response Generation
with Auxiliary Tasks [22.585901751927995]
オープンドメイン対話のためのマルチターン応答生成について検討する。
本研究では,単純な構造を持ちながら,会話コンテキストを効果的に活用できるモデルを提案する。
論文 参考訳(メタデータ) (2020-04-04T16:37:00Z) - Posterior-GAN: Towards Informative and Coherent Response Generation with
Posterior Generative Adversarial Network [38.576579498740244]
我々は,新しいエンコーダデコーダに基づく生成逆学習フレームワーク,Posterior Generative Adversarial Network (Posterior-GAN)を提案する。
実験結果から,本手法は自動評価と人的評価の両方において,生成した応答の情報性とコヒーレンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2020-03-04T11:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。