論文の概要: ECLAIR: Enhanced Clarification for Interactive Responses
- arxiv url: http://arxiv.org/abs/2503.15739v1
- Date: Wed, 19 Mar 2025 23:04:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:33.193418
- Title: ECLAIR: Enhanced Clarification for Interactive Responses
- Title(参考訳): ECLAIR: 対話型応答のための強化された明確化
- Authors: John Murzaku, Zifan Liu, Md Mehrab Tanjim, Vaishnavi Muppala, Xiang Chen, Yunyao Li,
- Abstract要約: ECLAIRは、あいまいなユーザクエリの明確化質問を生成し、ユーザの応答に基づいてあいまいさを解決する。
本稿では,複数の下流エージェントからのあいまいさ情報を統合可能な一般化アーキテクチャを提案する。
ECLAIRと数発のプロンプト技術との比較実験を行い、質問生成とあいまいさ解決におけるECLAIRの優れた性能を実証した。
- 参考スコア(独自算出の注目度): 10.954831867440332
- License:
- Abstract: We present ECLAIR (Enhanced CLArification for Interactive Responses), a novel unified and end-to-end framework for interactive disambiguation in enterprise AI assistants. ECLAIR generates clarification questions for ambiguous user queries and resolves ambiguity based on the user's response.We introduce a generalized architecture capable of integrating ambiguity information from multiple downstream agents, enhancing context-awareness in resolving ambiguities and allowing enterprise specific definition of agents. We further define agents within our system that provide domain-specific grounding information. We conduct experiments comparing ECLAIR to few-shot prompting techniques and demonstrate ECLAIR's superior performance in clarification question generation and ambiguity resolution.
- Abstract(参考訳): ECLAIR (Enhanced CLArification for Interactive Responses) は、エンタープライズAIアシスタントにおける対話的曖昧化のための、統一的でエンドツーエンドなフレームワークである。
本稿では,複数の下流エージェントからのあいまいさ情報を統合し,あいまいさを解消し,企業固有のエージェント定義を可能にする汎用アーキテクチャを提案する。
さらに,ドメイン固有の接地情報を提供するエージェントをシステム内に定義する。
ECLAIRと数発のプロンプト技術との比較実験を行い、解明問題生成と曖昧性解決におけるECLAIRの優れた性能を実証した。
関連論文リスト
- Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Detecting Ambiguities to Guide Query Rewrite for Robust Conversations in Enterprise AI Assistants [22.24244100928786]
NLU-NLGフレームワークを提案する。
我々は,実際のユーザの会話ログに基づいて分類法を開発し,そこから洞察を得てルールを設計し,分類器の特徴を抽出する。
これは現実世界のアプリケーション、すなわちAdobe Experience Platform AI Assistantにデプロイされている。
論文 参考訳(メタデータ) (2025-02-01T19:23:21Z) - CRAT: A Multi-Agent Framework for Causality-Enhanced Reflective and Retrieval-Augmented Translation with Large Language Models [59.8529196670565]
CRATは、RAGと因果強化自己回帰を利用して翻訳課題に対処する、新しいマルチエージェント翻訳フレームワークである。
以上の結果からCRATは翻訳精度を著しく向上させ,特に文脈に敏感な単語や語彙の出現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-28T14:29:11Z) - An Adaptive Framework for Generating Systematic Explanatory Answer in Online Q&A Platforms [62.878616839799776]
質問応答(QA)性能を向上させるために設計された,革新的なフレームワークであるSynthRAGを提案する。
SynthRAGは動的コンテンツの構造化に適応的なアウトラインを用いることで従来のモデルを改善する。
Zhihuプラットフォーム上のオンラインデプロイメントでは、SynthRAGの回答が注目すべきユーザエンゲージメントを実現していることが明らかになった。
論文 参考訳(メタデータ) (2024-10-23T09:14:57Z) - SetCSE: Set Operations using Contrastive Learning of Sentence Embeddings [6.988934943372354]
SetCSEは複雑なセマンティクスを表現するためにセットを使用し、構造化情報クエリのための明確に定義された操作を組み込む。
そこで本稿では,文の埋め込みモデルに対する意味論の理解を高めるために,集合間のコントラスト学習手法を提案する。
本研究では,SetCSEが複合意味論に関する人間の言語表現の慣習に準拠していることを示す。
論文 参考訳(メタデータ) (2024-04-25T02:05:30Z) - Tell Me More! Towards Implicit User Intention Understanding of Language
Model Driven Agents [110.25679611755962]
現在の言語モデル駆動エージェントは、しばしば効果的なユーザ参加のメカニズムを欠いている。
Intention-in-Interaction (IN3) は明示的なクエリを通してユーザの暗黙の意図を検査するための新しいベンチマークである。
私たちは、タスクの曖昧さを積極的に評価し、ユーザの意図を問う強力なモデルであるMistral-Interactを経験的に訓練し、それらを実行可能な目標へと洗練させます。
論文 参考訳(メタデータ) (2024-02-14T14:36:30Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - 'What are you referring to?' Evaluating the Ability of Multi-Modal
Dialogue Models to Process Clarificational Exchanges [65.03196674816772]
参照表現が宛先に対して意図された参照を一意に識別しない場合、参照の曖昧さが対話で生じる。
出席者は、通常、そのような曖昧さをすぐに検知し、メタコミュニケーション、明確化取引所(CE: Meta-communicative, Clarification Exchanges)を使用して、話者と作業する。
ここでは、CRを生成・応答する能力は、マルチモーダルな視覚的基盤を持つ対話モデルのアーキテクチャと目的関数に特定の制約を課していると論じる。
論文 参考訳(メタデータ) (2023-07-28T13:44:33Z) - ASQ-IT: Interactive Explanations for Reinforcement-Learning Agents [7.9603223299524535]
本稿では,ユーザが興味のある行動の時間的特性を記述したクエリに基づいて,その環境に作用するエージェントのビデオクリップを提示する対話型ツールASQ-ITを提案する。
提案手法は,ASQ-ITのユーザインタフェースのクエリを有限トレース(LTLf)上の線形時間論理の断片にマッピングする形式的手法に基づいており,クエリ処理のアルゴリズムはオートマチック理論に基づいている。
論文 参考訳(メタデータ) (2023-01-24T11:57:37Z) - Toward Policy Explanations for Multi-Agent Reinforcement Learning [18.33682005623418]
MARLのための2種類のポリシー記述を生成するための新しい手法を提案する。
3つのMARL領域の実験結果から,提案手法のスケーラビリティが実証された。
ユーザスタディでは、生成された説明がユーザパフォーマンスを著しく改善し、ユーザ満足度などの指標に対する主観的評価が向上することを示した。
論文 参考訳(メタデータ) (2022-04-26T20:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。