論文の概要: Detecting Ambiguities to Guide Query Rewrite for Robust Conversations in Enterprise AI Assistants
- arxiv url: http://arxiv.org/abs/2502.00537v1
- Date: Sat, 01 Feb 2025 19:23:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:21:53.90066
- Title: Detecting Ambiguities to Guide Query Rewrite for Robust Conversations in Enterprise AI Assistants
- Title(参考訳): エンタープライズAIアシスタントにおけるロバスト会話のためのクエリリライトガイドの曖昧さの検出
- Authors: Md Mehrab Tanjim, Xiang Chen, Victor S. Bursztyn, Uttaran Bhattacharya, Tung Mai, Vaishnavi Muppala, Akash Maharaj, Saayan Mitra, Eunyee Koh, Yunyao Li, Ken Russell,
- Abstract要約: NLU-NLGフレームワークを提案する。
我々は,実際のユーザの会話ログに基づいて分類法を開発し,そこから洞察を得てルールを設計し,分類器の特徴を抽出する。
これは現実世界のアプリケーション、すなわちAdobe Experience Platform AI Assistantにデプロイされている。
- 参考スコア(独自算出の注目度): 22.24244100928786
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multi-turn conversations with an Enterprise AI Assistant can be challenging due to conversational dependencies in questions, leading to ambiguities and errors. To address this, we propose an NLU-NLG framework for ambiguity detection and resolution through reformulating query automatically and introduce a new task called "Ambiguity-guided Query Rewrite." To detect ambiguities, we develop a taxonomy based on real user conversational logs and draw insights from it to design rules and extract features for a classifier which yields superior performance in detecting ambiguous queries, outperforming LLM-based baselines. Furthermore, coupling the query rewrite module with our ambiguity detecting classifier shows that this end-to-end framework can effectively mitigate ambiguities without risking unnecessary insertions of unwanted phrases for clear queries, leading to an improvement in the overall performance of the AI Assistant. Due to its significance, this has been deployed in the real world application, namely Adobe Experience Platform AI Assistant.
- Abstract(参考訳): エンタープライズAIアシスタントとのマルチターン会話は、質問における会話の依存関係によって困難になり、曖昧さとエラーにつながる可能性がある。
そこで本稿では,クエリの自動変換による曖昧性検出と解決のためのNLU-NLGフレームワークを提案し,"Ambiguity-guided Query Rewrite"と呼ばれる新しいタスクを導入する。
あいまいさを検知するために,実際のユーザの会話ログに基づく分類法を開発し,その知見を抽出してルールを設計し,不明瞭なクエリの検出において優れた性能を得られる分類器の特徴を抽出する。
さらに、クエリ書き換えモジュールとあいまいさ検出分類器を結合することにより、このエンドツーエンドのフレームワークは、明確なクエリに対する不要なフレーズの挿入を危険にさらすことなく、あいまいさを効果的に軽減できることが示され、AIアシスタントの全体的なパフォーマンスが改善される。
その重要性から、これは現実世界のアプリケーション、すなわちAdobe Experience Platform AI Assistantにデプロイされている。
関連論文リスト
- Clarifying Ambiguities: on the Role of Ambiguity Types in Prompting Methods for Clarification Generation [5.259846811078731]
我々は、明確化のためのあいまいさの概念に注目し、明確化プロセスにおいてあいまいさをモデル化し統合することを模索する。
我々はこの新しいプロンプトスキームをAmbiguity Type-Chain of Thought (AT-CoT)と名付けた。
論文 参考訳(メタデータ) (2025-04-16T14:21:02Z) - CLEAR-KGQA: Clarification-Enhanced Ambiguity Resolution for Knowledge Graph Question Answering [13.624962763072899]
KGQAシステムは通常、ユーザクエリは曖昧であると仮定するが、これは現実世界のアプリケーションではめったに行われない仮定である。
本稿では,対話的明確化を通じて,エンティティのあいまいさ(類似した名前を持つエンティティの区別など)と意図のあいまいさ(ユーザクエリの異なる解釈を明確にするなど)を動的に扱う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-13T17:34:35Z) - ECLAIR: Enhanced Clarification for Interactive Responses in an Enterprise AI Assistant [10.954831867440332]
ECLAIR (Enhanced CLArification for Interactive Responses) は対話的曖昧化のための多エージェントフレームワークである。
ECLAIRは、カスタムエージェントが定義された対話的なプロセス、エージェントによるあいまいさ推論の実行、明確化質問の生成、最終応答の洗練にユーザフィードバックを活用することで、あいまいなユーザクエリの明確化を促進する。
実世界の顧客データでテストすると、ECLAIRは標準的な数ショット法と比較して、明確化質問生成の大幅な改善を示している。
論文 参考訳(メタデータ) (2025-03-19T23:13:34Z) - ECLAIR: Enhanced Clarification for Interactive Responses [10.954831867440332]
ECLAIRは、あいまいなユーザクエリの明確化質問を生成し、ユーザの応答に基づいてあいまいさを解決する。
本稿では,複数の下流エージェントからのあいまいさ情報を統合可能な一般化アーキテクチャを提案する。
ECLAIRと数発のプロンプト技術との比較実験を行い、質問生成とあいまいさ解決におけるECLAIRの優れた性能を実証した。
論文 参考訳(メタデータ) (2025-03-19T23:04:00Z) - Exploring Rewriting Approaches for Different Conversational Tasks [63.56404271441824]
正確な書き換えアプローチは、しばしば、会話アシスタントによってサポートされているユースケースとアプリケーション固有のタスクに依存します。
基本的に異なる2つの生成タスクに対して,書き換えと融合という2つの異なるアプローチを体系的に検討した。
以上の結果から, 特定の書き換え手法や融合手法は, 基礎となるユースケースや生成課題に大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2025-02-26T06:05:29Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Improving Retrieval in Sponsored Search by Leveraging Query Context Signals [6.152499434499752]
本稿では,クエリをリッチなコンテキスト信号で拡張することで,クエリ理解を強化する手法を提案する。
我々は、Web検索のタイトルとスニペットを使って、現実世界の情報にクエリを接地し、GPT-4を使ってクエリの書き直しと説明を生成する。
我々の文脈認識アプローチは文脈自由モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-19T14:28:53Z) - AMBROSIA: A Benchmark for Parsing Ambiguous Questions into Database Queries [56.82807063333088]
我々は,新たなベンチマークであるAMBROSIAを導入し,テキスト・ツー・オープン・プログラムの開発を促進することを期待する。
私たちのデータセットには、3種類のあいまいさ(スコープのあいまいさ、アタッチメントのあいまいさ、あいまいさ)を示す質問が含まれている。
いずれの場合も、データベースのコンテキストが提供されてもあいまいさは持続する。
これは、スクラッチからデータベースを制御して生成する、新しいアプローチによって実現される。
論文 参考訳(メタデータ) (2024-06-27T10:43:04Z) - AutoGuide: Automated Generation and Selection of Context-Aware Guidelines for Large Language Model Agents [74.17623527375241]
オフライン体験からコンテキスト認識ガイドラインを自動的に生成する,AutoGuideという新しいフレームワークを導入する。
その結果,本ガイドラインはエージェントの現在の意思決定プロセスに関連性のある知識の提供を促進する。
評価の結果, AutoGuide は複雑なベンチマーク領域において, 競争ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-03-13T22:06:03Z) - DFA-RAG: Conversational Semantic Router for Large Language Model with Definite Finite Automaton [44.26173742405563]
本稿では,Definite Finite Automaton (DFA-RAG)を用いた検索強化大言語モデルを提案する。
DFA-RAGは,大規模言語モデル(LLM)を用いた対話エージェントの機能向上を目的としたフレームワークである。
論文 参考訳(メタデータ) (2024-02-06T21:14:45Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Building Interpretable and Reliable Open Information Retriever for New
Domains Overnight [67.03842581848299]
情報検索は、オープンドメイン質問応答(QA)など、多くのダウンストリームタスクにとって重要な要素である。
本稿では、エンティティ/イベントリンクモデルとクエリ分解モデルを用いて、クエリの異なる情報単位により正確にフォーカスする情報検索パイプラインを提案する。
より解釈可能で信頼性が高いが,提案したパイプラインは,5つのIRおよびQAベンチマークにおける通過カバレッジと記述精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-09T07:47:17Z) - ZeQR: Zero-shot Query Reformulation for Conversational Search [11.644235288057123]
本稿では,対話型検索データからの監視を必要とせずに,従来の対話コンテキストに基づいてクエリを再構成する,ゼロショットクエリ再構成(あるいはクエリ書き換え)フレームワークを提案する。
具体的には、機械読解タスク用に設計された言語モデルを用いて、コア参照と省略という2つの共通の曖昧さを生クエリで明示的に解決する。
さらに、あいまいさが明確かつ積極的に解決されているため、説明可能性も向上し、クエリ意図の理解を効果的に強化する。
論文 参考訳(メタデータ) (2023-07-18T16:05:25Z) - Personalized Query Rewriting in Conversational AI Agents [7.086654234990377]
本稿では,ユーザの歴史的に成功したインタラクションをメモリとして活用し,クエリ書き換え手法を提案する。
ニューラルネットワークモデルとポインタジェネレータネットワークに階層的な注意を払い、上述したユーザ記憶を用いたクエリ書き換えタスクにおいて、より優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-11-09T20:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。