論文の概要: Mix-Initiative Response Generation with Dynamic Prefix Tuning
- arxiv url: http://arxiv.org/abs/2403.17636v1
- Date: Tue, 26 Mar 2024 12:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 15:37:32.157632
- Title: Mix-Initiative Response Generation with Dynamic Prefix Tuning
- Title(参考訳): 動的プレフィックスチューニングによる混合開始応答生成
- Authors: Yuxiang Nie, Heyan Huang, Xian-Ling Mao, Lizi Liao,
- Abstract要約: 混合イニシアチブは、会話の方向を制御する上で重要な要素の1つである。
ほとんどの対話システムは、異なるイニシアチブ間で区別されることなく、全体的な応答生成モデルを訓練することに焦点を当てている。
生成モデルから異なるイニシアチブを分離するために、IDPT(mix-Initiative Dynamic Prefix Tuning)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 63.3043710921377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixed initiative serves as one of the key factors in controlling conversation directions. For a speaker, responding passively or leading proactively would result in rather different responses. However, most dialogue systems focus on training a holistic response generation model without any distinction among different initiatives. It leads to the cross-contamination problem, where the model confuses different initiatives and generates inappropriate responses. Moreover, obtaining plenty of human annotations for initiative labels can be expensive. To address this issue, we propose a general mix-Initiative Dynamic Prefix Tuning framework (IDPT) to decouple different initiatives from the generation model, which learns initiative-aware prefixes in both supervised and unsupervised settings. Specifically, IDPT decouples initiative factors into different prefix parameters and uses the attention mechanism to adjust the selection of initiatives in guiding generation dynamically. The prefix parameters can be tuned towards accurate initiative prediction as well as mix-initiative response generation. Extensive experiments on two public dialogue datasets show that the proposed IDPT outperforms previous baselines on both automatic metrics and human evaluations. It also manages to generate appropriate responses with manipulated initiatives.
- Abstract(参考訳): 混合イニシアチブは、会話の方向を制御する上で重要な要素の1つである。
話者にとって、受動的に反応するか、積極的に反応するということは、かなり異なる反応をもたらす。
しかし、ほとんどの対話システムは、異なるイニシアチブ間で区別されることなく、全体的な応答生成モデルを訓練することに焦点を当てている。
モデルが異なるイニシアチブを混同し、不適切な応答を生成するという、クロス汚染問題につながります。
さらに、イニシアティブラベルのための多くの人的アノテーションを取得することは、コストがかかる。
この問題に対処するため,我々は生成モデルから異なるイニシアチブを分離し,教師なし設定と教師なし設定の両方でイニシアチブ対応のプレフィックスを学習する,一般の混合開始動的プリフィックスチューニングフレームワーク(IDPT)を提案する。
具体的には、IDPTは、イニシアティブ因子を異なるプレフィックスパラメータに分解し、アテンションメカニズムを使用して、ジェネレーションを動的に誘導するイニシアティブの選択を調整する。
プレフィックスパラメータは、正確なイニシアティブ予測とミックス開始応答生成に調整することができる。
2つの公開対話データセットの大規模な実験により、提案したIDPTは、自動測定と人的評価の両方において、以前のベースラインを上回っていることが示された。
また、操作されたイニシアティブで適切なレスポンスを生成することもできる。
関連論文リスト
- PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - Towards Robust Personalized Dialogue Generation via Order-Insensitive
Representation Regularization [20.722098595079945]
本稿では,オーダ・インセンシティブ・ジェネレーション(ORIG)というモデルに依存しないフレームワークを提案する。
Persona-Chatデータセットの実験は,本手法の有効性と優位性を正当化するものである。
論文 参考訳(メタデータ) (2023-05-22T07:24:29Z) - EM Pre-training for Multi-party Dialogue Response Generation [86.25289241604199]
多人数対話では、応答発話の宛先を生成前に指定する必要がある。
本稿では,アドレナラベルを生成するための期待ステップを反復的に実行する期待最大化(EM)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:41Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - Sequential Topic Selection Model with Latent Variable for Topic-Grounded
Dialogue [21.1427816176227]
我々は,すべての会話における話題遷移を活用するために,SGTA(Sequential Global Topic Attention)という新しいアプローチを提案する。
我々のモデルは予測および生成タスクの競争ベースラインを上回っている。
論文 参考訳(メタデータ) (2022-10-17T07:34:14Z) - TopicRefine: Joint Topic Prediction and Dialogue Response Generation for
Multi-turn End-to-End Dialogue System [12.135300607779753]
マルチターン対話は、常に特定のトピックスレッドに従っており、談話レベルでのトピックシフトは自然に起こる。
これまでの研究では、まずトピックを予測し、関連する応答を生成したり、単にすべてのトピックに注意機構を適用したりしていた。
本稿では,これら2つの課題を同時に学習するためのトピックリファインメント機構を備えた共同フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-11T04:43:07Z) - Improving Response Quality with Backward Reasoning in Open-domain
Dialogue Systems [53.160025961101354]
本稿では,バニラエンコーダデコーダトレーニングに後方推論ステップを追加することで,生成モデルを双方向にトレーニングすることを提案する。
提案する後方推論ステップは、モデルがより有益で一貫性のあるコンテンツを生成するように促す。
副次的な情報を導入することなく応答品質を向上させることができる。
論文 参考訳(メタデータ) (2021-04-30T20:38:27Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Multi-Domain Dialogue Acts and Response Co-Generation [34.27525685962274]
本稿では,対話行動と応答を同時に生成するニューラルコジェネレーションモデルを提案する。
我々のモデルは, 自動評価と人的評価の両方において, いくつかの最先端モデルに対して, 極めて良好な改善を達成している。
論文 参考訳(メタデータ) (2020-04-26T12:21:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。