論文の概要: The Adapter-Bot: All-In-One Controllable Conversational Model
- arxiv url: http://arxiv.org/abs/2008.12579v2
- Date: Wed, 21 Oct 2020 02:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 01:20:24.998046
- Title: The Adapter-Bot: All-In-One Controllable Conversational Model
- Title(参考訳): Adapter-Bot:オールインワン制御可能な会話モデル
- Authors: Andrea Madotto, Zhaojiang Lin, Yejin Bang, Pascale Fung
- Abstract要約: 本稿では、DialGPTなどの固定バックボーンモデルを用いて、異なるアダプタを介してオンデマンド対話スキルをトリガーする対話モデルを提案する。
スキルに応じて、モデルはテキスト、テーブル、強調応答などの複数の知識タイプを処理できる。
我々は,既存の会話モデルと比較し,自動評価を用いたモデルの評価を行った。
- 参考スコア(独自算出の注目度): 66.48164003532484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Considerable progress has been made towards conversational models that
generate coherent and fluent responses by training large language models on
large dialogue datasets. These models have little or no control of the
generated responses and miss two important features: continuous dialogue skills
integration and seamlessly leveraging diverse knowledge sources. In this paper,
we propose the Adapter-Bot, a dialogue model that uses a fixed backbone
conversational model such as DialGPT (Zhang et al., 2019) and triggers
on-demand dialogue skills (e.g., emphatic response, weather information, movie
recommendation) via different adapters (Houlsby et al., 2019). Each adapter can
be trained independently, thus allowing a continual integration of skills
without retraining the entire model. Depending on the skills, the model is able
to process multiple knowledge types, such as text, tables, and graphs, in a
seamless manner. The dialogue skills can be triggered automatically via a
dialogue manager, or manually, thus allowing high-level control of the
generated responses. At the current stage, we have implemented 12 response
styles (e.g., positive, negative etc.), 8 goal-oriented skills (e.g. weather
information, movie recommendation, etc.), and personalized and emphatic
responses. We evaluate our model using automatic evaluation by comparing it
with existing state-of-the-art conversational models, and we have released an
interactive system at adapter.bot.ust.hk.
- Abstract(参考訳): 大規模対話データセット上で大規模言語モデルを訓練することにより,一貫性と流動性を持った応答を生成する対話モデルに向けて,検討が進められている。
これらのモデルは生成した応答をほとんどあるいはまったくコントロールせず、継続的な対話スキルの統合と多様な知識ソースのシームレスな活用という、2つの重要な特徴を見逃します。
本稿では、DialGPT(Zhang et al., 2019)のような固定されたバックボーン対話モデルを用いた対話モデルであるAdapter-Botを提案し、異なるアダプタ(Houlsby et al., 2019)を介してオンデマンド対話スキル(強調応答、天気情報、映画レコメンデーション)をトリガーする。
各アダプタは独立してトレーニングできるため、モデル全体をトレーニングすることなく、継続的にスキルを統合することができる。
スキルに応じて、モデルはテキスト、テーブル、グラフなどの複数の知識タイプをシームレスに処理することができる。
対話スキルは対話マネージャを介して、あるいは手動で自動的に起動できるため、生成されたレスポンスの高レベルな制御が可能になる。
現段階では,12種類の応答スタイル(肯定的,否定的など),8つの目標指向スキル(天気情報,映画レコメンデーションなど),パーソナライズされた,強調的な応答を実現している。
既存の最先端会話モデルと比較し,自動評価による評価を行い,adapter.bot.ust.hkでインタラクティブなシステムを開発した。
関連論文リスト
- WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - q2d: Turning Questions into Dialogs to Teach Models How to Search [11.421839177607147]
質問から情報検索ダイアログを生成する自動データ生成パイプラインであるq2dを提案する。
検索クエリによる人書きダイアログに依存する従来の手法とは異なり,提案手法では,より優れた制御とスケールで,クエリベースの基底ダイアログを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-04-27T16:39:15Z) - ChatPLUG: Open-Domain Generative Dialogue System with Internet-Augmented
Instruction Tuning for Digital Human [76.62897301298699]
ChatPLUGは、デジタルヒューマンアプリケーションのための中国のオープンドメイン対話システムである。
モデルネームは, 自動評価と人的評価の両方において, 最先端の中国語対話システムより優れていることを示す。
高速な推論でスマートスピーカーやインスタントメッセージアプリケーションのような実世界のアプリケーションにモデルネームをデプロイします。
論文 参考訳(メタデータ) (2023-04-16T18:16:35Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - CloneBot: Personalized Dialogue-Response Predictions [0.0]
プロジェクトのタスクは、話者id、チャット履歴、発話クエリが与えられた場合に、会話中の応答発話を予測できるモデルを作成することだった。
モデルは各話者にパーソナライズされる。
このタスクは、人間のような方法で会話する音声ボットをライブ会話で構築するのに有用なツールである。
論文 参考訳(メタデータ) (2021-03-31T01:15:37Z) - A Taxonomy of Empathetic Response Intents in Human Social Conversations [1.52292571922932]
自然言語処理コミュニティでは、オープンドメインの会話エージェントがますます人気を高めている。
課題のひとつは、共感的な方法で会話できるようにすることです。
現在のニューラルレスポンス生成手法は、大規模な会話データからエンドツーエンドの学習のみに頼って対話を生成する。
近年,対話act/intentモデリングとニューラルレスポンス生成を組み合わせることが期待されている。
論文 参考訳(メタデータ) (2020-12-07T21:56:45Z) - Speaker Sensitive Response Evaluation Model [17.381658875470638]
本稿では,生成した応答と会話コンテキストとの類似性に基づく自動評価モデルを提案する。
ラベルのない会話コーパスからモデルパラメータを学習する。
我々のモデルは、追加の訓練なしに映画対話に適用できることが示される。
論文 参考訳(メタデータ) (2020-06-12T08:59:10Z) - Knowledge Injection into Dialogue Generation via Language Models [85.65843021510521]
InjKは対話生成モデルに知識を注入するための2段階のアプローチである。
まず、大規模言語モデルをトレーニングし、テキスト知識としてクエリする。
次に、対話生成モデルを作成し、テキスト知識と対応する応答を逐次生成する。
論文 参考訳(メタデータ) (2020-04-30T07:31:24Z) - Modality-Balanced Models for Visual Dialogue [102.35406085738325]
Visual Dialogタスクは、対話に対する次の応答を生成するために、画像情報と会話コンテキスト情報の両方を利用するモデルを必要とする。
過去の共同モダリティ(歴史とイメージ)モデルが過度に再現され,対話履歴を記憶する傾向が強いことを示す。
本稿では,共有パラメータを用いたアンサンブルとコンセンサス・ドロップアウト融合による2つのモデルの統合手法を提案する。
論文 参考訳(メタデータ) (2020-01-17T14:57:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。