論文の概要: 5IDER: Unified Query Rewriting for Steering, Intent Carryover,
Disfluencies, Entity Carryover and Repair
- arxiv url: http://arxiv.org/abs/2306.01855v1
- Date: Fri, 2 Jun 2023 18:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 23:41:07.308471
- Title: 5IDER: Unified Query Rewriting for Steering, Intent Carryover,
Disfluencies, Entity Carryover and Repair
- Title(参考訳): 5IDER: ステアリング、Intent Carryover、disfluencies、Entity Carryover、Re repairのための統一クエリ書き換え
- Authors: Jiarui Lu, Bo-Hsiang Tseng, Joel Ruben Antony Moniz, Site Li, Xueyun
Zhu, Hong Yu, Murat Akbacak
- Abstract要約: マルチターン会話には、ステアリング、インテントの受け渡し、分散性、エンティティの受け渡し、修復など、さまざまな会話のユースケースを理解する必要がある。
本研究は,上記5つのタスクだけでなく,これらのユースケースの複雑な構成も扱える非自己回帰型クエリ書き換えアーキテクチャを提案する。
提案モデルでは,ベースラインモデルに比べて単一タスク性能が優れており,ユースケース構成において細調整されたT5モデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 13.192130497215995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Providing voice assistants the ability to navigate multi-turn conversations
is a challenging problem. Handling multi-turn interactions requires the system
to understand various conversational use-cases, such as steering, intent
carryover, disfluencies, entity carryover, and repair. The complexity of this
problem is compounded by the fact that these use-cases mix with each other,
often appearing simultaneously in natural language. This work proposes a
non-autoregressive query rewriting architecture that can handle not only the
five aforementioned tasks, but also complex compositions of these use-cases. We
show that our proposed model has competitive single task performance compared
to the baseline approach, and even outperforms a fine-tuned T5 model in
use-case compositions, despite being 15 times smaller in parameters and 25
times faster in latency.
- Abstract(参考訳): 音声アシスタントの提供 マルチターン会話をナビゲートする能力は、難しい問題である。
マルチターンインタラクションの処理には、ステアリング、意図の受け渡し、分散性、エンティティの受け渡し、修復など、さまざまな会話のユースケースを理解する必要がある。
この問題の複雑さは、これらのユースケースが互いに混ざり合っていて、しばしば自然言語で同時に現れるという事実によって複合化される。
上記の5つのタスクだけでなく、これらのユースケースの複雑な構成も扱える非自己回帰型クエリ書き換えアーキテクチャを提案する。
提案モデルでは,パラメータが15倍小さく,レイテンシが25倍高速であるにもかかわらず,ベースラインアプローチと比較してシングルタスク性能が向上し,ユースケース構成において微調整T5モデルよりも優れていた。
関連論文リスト
- Repairs in a Block World: A New Benchmark for Handling User Corrections with Multi-Modal Language Models [48.42142115255159]
命令追従操作タスクにおけるマルチモーダルなTPRシーケンスのデータセットであるBlockWorld-Repairsをリリースする。
現状のビジョンと言語モデル(VLM)を複数の設定で評価し,TPRの処理能力と正確な応答性に着目した。
以上の結果から,これらのモデルはまだマルチモーダル・コラボレーティブ・セッティングにデプロイする準備が整っていないことが示唆された。
論文 参考訳(メタデータ) (2024-09-21T21:06:25Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Dynamic Multi-Scale Context Aggregation for Conversational Aspect-Based
Sentiment Quadruple Analysis [4.768182075837568]
DiaASQは、対話の中で、ターゲット・アスペクト・オピニオン感覚の4倍を抽出することを目的としている。
既存の作業はそれぞれの発話を独立して符号化するので、長距離会話のコンテキストを捉えるのに苦労する。
本稿では,新しい動的マルチスケールコンテキストアグリゲーションネットワーク(DMCA)を提案する。
論文 参考訳(メタデータ) (2023-09-27T08:17:28Z) - Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - Efficient Task-Oriented Dialogue Systems with Response Selection as an
Auxiliary Task [0.0]
応答選択のための補助的タスクを持つ2つのモデルを提案する。
彼らはMultiWOZ 2.1データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2022-08-15T09:59:44Z) - Semantic-aware Modular Capsule Routing for Visual Question Answering [55.03883681191765]
SuPER と呼ばれるセマンティック・アウェアな modUlar caPsulE フレームワークを提案する。
5つのベンチマークデータセットに対して提案した SUPER スキームの有効性と一般化能力を比較検討した。
論文 参考訳(メタデータ) (2022-07-21T10:48:37Z) - Re-framing Incremental Deep Language Models for Dialogue Processing with
Multi-task Learning [14.239355474794142]
本稿では,1つのインクリメンタル対話処理モデルのトレーニングを可能にするマルチタスク学習フレームワークを提案する。
これらのタスクは、タスクからのノイズの重大度に依存する各タスクの最適貢献により、互いに正の帰納バイアスを与えることを示す。
論文 参考訳(メタデータ) (2020-11-13T04:31:51Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z) - MLR: A Two-stage Conversational Query Rewriting Model with Multi-task
Learning [16.88648782206587]
本稿では,シーケンスラベリングとクエリリライトのマルチタスクモデルであるMLRを提案する。
MLRは、マルチターンの会話クエリを単一のターンクエリに再構成し、ユーザの真の意図を簡潔に伝達する。
モデルをトレーニングするために,新しい中国語クエリ書き換えデータセットを構築し,その上で実験を行う。
論文 参考訳(メタデータ) (2020-04-13T08:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。