論文の概要: STYLE: Improving Domain Transferability of Asking Clarification Questions in Large Language Model Powered Conversational Agents
- arxiv url: http://arxiv.org/abs/2405.12059v2
- Date: Sat, 1 Jun 2024 07:38:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-04 14:29:15.582640
- Title: STYLE: Improving Domain Transferability of Asking Clarification Questions in Large Language Model Powered Conversational Agents
- Title(参考訳): STYLE:大規模言語モデルを用いた対話エージェントにおける問合せ質問のドメイン転送性の向上
- Authors: Yue Chen, Chen Huang, Yang Deng, Wenqiang Lei, Dingnan Jin, Jia Liu, Tat-Seng Chua,
- Abstract要約: LLMに基づく明確化戦略は、ポストホックな方法で様々なドメインへの迅速な移行を特徴とする。
既存の手法では、様々な領域にまたがる一大戦略が作成され、検索の有効性が制限される傾向にある。
本稿では,ドメイン転送性を効果的に実現するために,Styleと呼ばれる新しい手法を提案する。
- 参考スコア(独自算出の注目度): 67.05207285885722
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Equipping a conversational search engine with strategies regarding when to ask clarification questions is becoming increasingly important across various domains. Attributing to the context understanding capability of LLMs and their access to domain-specific sources of knowledge, LLM-based clarification strategies feature rapid transfer to various domains in a post-hoc manner. However, they still struggle to deliver promising performance on unseen domains, struggling to achieve effective domain transferability. We take the first step to investigate this issue and existing methods tend to produce one-size-fits-all strategies across diverse domains, limiting their search effectiveness. In response, we introduce a novel method, called Style, to achieve effective domain transferability. Our experimental results indicate that Style bears strong domain transferability, resulting in an average search performance improvement of ~10% on four unseen domains.
- Abstract(参考訳): 対話型検索エンジンに、明確化を問うときの戦略を取り入れることが、各分野においてますます重要になっている。
LLMのコンテキスト理解能力とドメイン固有の知識ソースへのアクセスに起因して、LLMベースの明確化戦略は、ポストホックな方法で様々なドメインへの迅速な移行を特徴とする。
しかし、まだ、目に見えないドメインで有望なパフォーマンスを提供するのに苦労し、効果的なドメイン転送可能性を達成するのに苦労しています。
我々はこの問題を調査する第一歩を踏み出し、既存の手法は様々な領域にまたがる一大戦略を生み出す傾向にあり、検索の有効性は制限される。
そこで本研究では,ドメイン転送性を効果的に実現するために,Styleと呼ばれる新しい手法を提案する。
実験の結果,Styleはドメイン転送性が高く,検索性能は4つの未確認領域で平均約10%向上した。
関連論文リスト
- Large Language Model for Multi-Domain Translation: Benchmarking and Domain CoT Fine-tuning [55.107329995417786]
大規模言語モデル(LLM)は、目覚ましい一般的な理解と生成能力を示している。
我々は、25のドイツ語$Leftrightarrow$ Englishと22の中国語$Leftrightarrow$ Englishテストセットを特徴とするマルチドメイン翻訳のベンチマークを確立する。
本稿では,LLMの内在的マルチドメインインテリジェンスを活用し,翻訳性能を向上させるためのドメインチェーン・オブ・シント(CoT)ファインチューニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T16:15:04Z) - DAOT: Domain-Agnostically Aligned Optimal Transport for Domain-Adaptive
Crowd Counting [35.83485358725357]
ドメイン適応は一般的に、異なるデータセット間のドメインギャップをブリッジするために、群衆カウントに使用される。
既存のドメイン適応手法は、同じデータセット内の差を見下ろしながら、データセット間の違いに焦点を当てる傾向がある。
ドメインに依存しない要素をドメイン間で整合させるDAOT(Domain-Agnostically Aligned Optimal Transport)戦略を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:59:40Z) - Dynamic Domain Discrepancy Adjustment for Active Multi-Domain Adaptation [3.367755441623275]
マルチソースアン教師付きドメイン適応(MUDA)は、関連するソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
アクティブマルチドメイン適応(D3AAMDA)のための動的ドメイン不一致適応法(Dynamic Domain Disrepancy Adjustment)を提案する。
このメカニズムは、ソースドメインとターゲットドメイン間の特徴のアライメントレベルを制御し、ソースドメイン内のローカルな有利な特徴情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-07-26T09:40:19Z) - Cross-Domain Policy Adaptation via Value-Guided Data Filtering [57.62692881606099]
動的ミスマッチで異なるドメインにまたがるポリシーを一般化することは、強化学習において重要な課題となる。
本稿では、ペア化された値ターゲットの近接に基づいて、ソースドメインからの遷移を選択的に共有するバリューガイドデータフィルタリング(VGDF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-28T04:08:40Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Improving Fake News Detection of Influential Domain via Domain- and
Instance-Level Transfer [16.886024206337257]
フェイクニュース検出(DITFEND)のためのドメインレベルおよびインスタンスレベルの転送フレームワークを提案する。
DITFENDは特定のターゲットドメインの性能を向上させることができる。
オンライン実験は、現実世界のシナリオにおいて、ベースモデルにさらなる改善をもたらすことを示している。
論文 参考訳(メタデータ) (2022-09-19T10:21:13Z) - Domain Adaptation for Sentiment Analysis Using Increased Intraclass
Separation [31.410122245232373]
ドメイン間感情分析手法は注目されている。
埋め込み空間における異なるクラス間の大きなマージンを誘導する新しい領域適応法を提案する。
この埋め込み空間は、ドメイン間のデータ分散をマッチングすることによって、ドメインに依存しないように訓練される。
論文 参考訳(メタデータ) (2021-07-04T11:39:12Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Multi-Domain Spoken Language Understanding Using Domain- and Task-Aware
Parameterization [78.93669377251396]
音声言語理解は、各ドメインでトレーニングデータのセットが利用できる教師付き学習問題として対処されてきた。
既存の1つのアプローチは、ドメイン間の共同トレーニングに共有パラメータを使用して、マルチドメイン学習を行うことによって、この問題を解決する。
本稿では,ドメイン固有モデルパラメータとタスク固有モデルパラメータを用いて,この手法のパラメータ化を改善することを提案する。
論文 参考訳(メタデータ) (2020-04-30T15:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。