論文の概要: Detecting Ambiguities to Guide Query Rewrite for Robust Conversations in Enterprise AI Assistants
- arxiv url: http://arxiv.org/abs/2502.00537v1
- Date: Sat, 01 Feb 2025 19:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:32.415260
- Title: Detecting Ambiguities to Guide Query Rewrite for Robust Conversations in Enterprise AI Assistants
- Title(参考訳): エンタープライズAIアシスタントにおけるロバスト会話のためのクエリリライトガイドの曖昧さの検出
- Authors: Md Mehrab Tanjim, Xiang Chen, Victor S. Bursztyn, Uttaran Bhattacharya, Tung Mai, Vaishnavi Muppala, Akash Maharaj, Saayan Mitra, Eunyee Koh, Yunyao Li, Ken Russell,
- Abstract要約: NLU-NLGフレームワークを提案する。
我々は,実際のユーザの会話ログに基づいて分類法を開発し,そこから洞察を得てルールを設計し,分類器の特徴を抽出する。
これは現実世界のアプリケーション、すなわちAdobe Experience Platform AI Assistantにデプロイされている。
- 参考スコア(独自算出の注目度): 22.24244100928786
- License:
- Abstract: Multi-turn conversations with an Enterprise AI Assistant can be challenging due to conversational dependencies in questions, leading to ambiguities and errors. To address this, we propose an NLU-NLG framework for ambiguity detection and resolution through reformulating query automatically and introduce a new task called "Ambiguity-guided Query Rewrite." To detect ambiguities, we develop a taxonomy based on real user conversational logs and draw insights from it to design rules and extract features for a classifier which yields superior performance in detecting ambiguous queries, outperforming LLM-based baselines. Furthermore, coupling the query rewrite module with our ambiguity detecting classifier shows that this end-to-end framework can effectively mitigate ambiguities without risking unnecessary insertions of unwanted phrases for clear queries, leading to an improvement in the overall performance of the AI Assistant. Due to its significance, this has been deployed in the real world application, namely Adobe Experience Platform AI Assistant.
- Abstract(参考訳): エンタープライズAIアシスタントとのマルチターン会話は、質問における会話の依存関係によって困難になり、曖昧さとエラーにつながる可能性がある。
そこで本稿では,クエリの自動変換による曖昧性検出と解決のためのNLU-NLGフレームワークを提案し,"Ambiguity-guided Query Rewrite"と呼ばれる新しいタスクを導入する。
あいまいさを検知するために,実際のユーザの会話ログに基づく分類法を開発し,その知見を抽出してルールを設計し,不明瞭なクエリの検出において優れた性能を得られる分類器の特徴を抽出する。
さらに、クエリ書き換えモジュールとあいまいさ検出分類器を結合することにより、このエンドツーエンドのフレームワークは、明確なクエリに対する不要なフレーズの挿入を危険にさらすことなく、あいまいさを効果的に軽減できることが示され、AIアシスタントの全体的なパフォーマンスが改善される。
その重要性から、これは現実世界のアプリケーション、すなわちAdobe Experience Platform AI Assistantにデプロイされている。
関連論文リスト
- Improving Retrieval in Sponsored Search by Leveraging Query Context Signals [6.152499434499752]
本稿では,クエリをリッチなコンテキスト信号で拡張することで,クエリ理解を強化する手法を提案する。
我々は、Web検索のタイトルとスニペットを使って、現実世界の情報にクエリを接地し、GPT-4を使ってクエリの書き直しと説明を生成する。
我々の文脈認識アプローチは文脈自由モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-19T14:28:53Z) - AMBROSIA: A Benchmark for Parsing Ambiguous Questions into Database Queries [56.82807063333088]
我々は,新たなベンチマークであるAMBROSIAを導入し,テキスト・ツー・オープン・プログラムの開発を促進することを期待する。
私たちのデータセットには、3種類のあいまいさ(スコープのあいまいさ、アタッチメントのあいまいさ、あいまいさ)を示す質問が含まれている。
いずれの場合も、データベースのコンテキストが提供されてもあいまいさは持続する。
これは、スクラッチからデータベースを制御して生成する、新しいアプローチによって実現される。
論文 参考訳(メタデータ) (2024-06-27T10:43:04Z) - DFA-RAG: Conversational Semantic Router for Large Language Model with Definite Finite Automaton [44.26173742405563]
本稿では,Definite Finite Automaton (DFA-RAG)を用いた検索強化大言語モデルを提案する。
DFA-RAGは,大規模言語モデル(LLM)を用いた対話エージェントの機能向上を目的としたフレームワークである。
論文 参考訳(メタデータ) (2024-02-06T21:14:45Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z) - ZeQR: Zero-shot Query Reformulation for Conversational Search [11.644235288057123]
本稿では,対話型検索データからの監視を必要とせずに,従来の対話コンテキストに基づいてクエリを再構成する,ゼロショットクエリ再構成(あるいはクエリ書き換え)フレームワークを提案する。
具体的には、機械読解タスク用に設計された言語モデルを用いて、コア参照と省略という2つの共通の曖昧さを生クエリで明示的に解決する。
さらに、あいまいさが明確かつ積極的に解決されているため、説明可能性も向上し、クエリ意図の理解を効果的に強化する。
論文 参考訳(メタデータ) (2023-07-18T16:05:25Z) - On the Impact of Speech Recognition Errors in Passage Retrieval for
Spoken Question Answering [13.013751306590303]
合成ASR雑音に対する語彙・高密度レトリバーのロバスト性について検討した。
我々は,人間の声による質問を含む新しいデータセットを作成し,その書き起こしを用いて,合成ASRノイズの代わりに自然なASRノイズを扱う場合に,検索性能がさらに劣化することを示す。
論文 参考訳(メタデータ) (2022-09-26T18:29:36Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Personalized Query Rewriting in Conversational AI Agents [7.086654234990377]
本稿では,ユーザの歴史的に成功したインタラクションをメモリとして活用し,クエリ書き換え手法を提案する。
ニューラルネットワークモデルとポインタジェネレータネットワークに階層的な注意を払い、上述したユーザ記憶を用いたクエリ書き換えタスクにおいて、より優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-11-09T20:45:39Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。