論文の概要: CloneBot: Personalized Dialogue-Response Predictions
- arxiv url: http://arxiv.org/abs/2103.16750v1
- Date: Wed, 31 Mar 2021 01:15:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:50:46.336185
- Title: CloneBot: Personalized Dialogue-Response Predictions
- Title(参考訳): clonebot: パーソナライズされた対話応答予測
- Authors: Tyler Weitzman and Hoon Pyo (Tim) Jeon
- Abstract要約: プロジェクトのタスクは、話者id、チャット履歴、発話クエリが与えられた場合に、会話中の応答発話を予測できるモデルを作成することだった。
モデルは各話者にパーソナライズされる。
このタスクは、人間のような方法で会話する音声ボットをライブ会話で構築するのに有用なツールである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our project task was to create a model that, given a speaker ID, chat
history, and an utterance query, can predict the response utterance in a
conversation. The model is personalized for each speaker. This task can be a
useful tool for building speech bots that talk in a human-like manner in a live
conversation. Further, we succeeded at using dense-vector encoding clustering
to be able to retrieve relevant historical dialogue context, a useful strategy
for overcoming the input limitations of neural-based models when predictions
require longer-term references from the dialogue history. In this paper, we
have implemented a state-of-the-art model using pre-training and fine-tuning
techniques built on transformer architecture and multi-headed attention blocks
for the Switchboard corpus. We also show how efficient vector clustering
algorithms can be used for real-time utterance predictions that require no
training and therefore work on offline and encrypted message histories.
- Abstract(参考訳): 我々のプロジェクト課題は、話者ID、チャット履歴、発話クエリが与えられた場合、会話中の応答発話を予測できるモデルを作成することであった。
モデルは各話者にパーソナライズされる。
このタスクは、人間のような方法で会話する音声ボットをライブ会話で構築するのに有用なツールである。
さらに,対話履歴からの長期的参照を必要とする場合,ニューラルネットワークモデルの入力制限を克服するための有用な戦略である,関連する対話コンテキストを検索するために,高密度ベクトル符号化クラスタリングを用いることに成功している。
本稿では,トランスフォーマーアーキテクチャとスイッチボードコーパス用マルチヘッドアテンションブロックを用いた事前学習と微調整技術を用いた最先端モデルを実装した。
また,学習を必要とせず,オフラインおよび暗号化されたメッセージ履歴を扱うリアルタイム発話予測に,ベクトルクラスタリングアルゴリズムがいかに効率的かを示す。
関連論文リスト
- Scaling Speech-Text Pre-training with Synthetic Interleaved Data [31.77653849518526]
音声言語モデル(SpeechLM)は音声入力を受け入れ、音声出力を生成し、より自然な人間とコンピュータの相互作用を可能にする。
従来のSpeechLMの開発手法は、教師なし音声データとパラレル音声テキストデータの可用性の制限によって制約されている。
本稿では,テキストコーパスから得られた大規模合成インターリーブデータを活用することによって,音声テキスト事前学習のスケールアップを行う手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T17:19:09Z) - Modeling Real-Time Interactive Conversations as Timed Diarized Transcripts [11.067252960486272]
本稿では,事前学習した言語モデルを用いて,リアルタイム対話型会話をシミュレートする簡易かつ汎用的な手法を提案する。
本稿では,インスタントメッセージ対話と音声会話の2つのケーススタディを用いて,この手法の可能性を実証する。
論文 参考訳(メタデータ) (2024-05-21T21:14:31Z) - Improving a sequence-to-sequence nlp model using a reinforcement
learning policy algorithm [0.0]
対話生成の現在のニューラルネットワークモデルは、おしゃべりエージェントの回答を生成する上で非常に有望である。
しかし、彼らは発話を1度ずつ予測し、将来の結果に対する彼らの影響を無視している。
本研究は,対話の長期的成功に基づくニューラルな会話モデル構築に向けた予備的なステップを記念するものである。
論文 参考訳(メタデータ) (2022-12-28T22:46:57Z) - Imagination is All You Need! Curved Contrastive Learning for Abstract
Sequence Modeling Utilized on Long Short-Term Dialogue Planning [2.5567566997688043]
マルチターン対話における発話対間の相対的なターン距離を学習する新しい表現学習手法であるCurved Contrastive Learning (CCL)を紹介する。
得られたバイエンコーダモデルは、目標発話と対応する応答候補を潜在空間に投影することにより、ゼロショット方式でゴールに向かって応答ランキングモデルとして変換器を誘導することができる。
論文 参考訳(メタデータ) (2022-11-14T18:16:48Z) - FCTalker: Fine and Coarse Grained Context Modeling for Expressive
Conversational Speech Synthesis [75.74906149219817]
Conversational Text-to-Speech (TTS) は、会話の文脈において、適切な言語的・感情的な韻律で発話を合成することを目的としている。
本稿では, 音声生成時に, 微細で粗い文脈依存性を同時に学習する, FCTalkerと呼ばれる新しい表現型会話型TSモデルを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:20:20Z) - GODEL: Large-Scale Pre-Training for Goal-Directed Dialog [119.1397031992088]
ダイアログのための大規模事前学習言語モデルであるGODELを紹介する。
GODELは、数ショットの微調整設定で、最先端の事前訓練ダイアログモデルより優れていることを示す。
評価手法の新たな特徴は,応答の有用性を評価するユーティリティの概念の導入である。
論文 参考訳(メタデータ) (2022-06-22T18:19:32Z) - CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement
Learning [85.3987745097806]
オフライン強化学習は、人間の話者から収集された静的データセットを使用して、対話エージェントをトレーニングするために使用することができる。
実験により,最近開発されたオフラインRL手法と言語モデルを組み合わせることで,現実的な対話エージェントが得られることが示された。
論文 参考訳(メタデータ) (2022-04-18T17:43:21Z) - Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension [48.483910831143724]
対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そこで我々は,対話入力からキー情報をナレーションすることで学習する,物語誘導型事前学習戦略を開発した。
論文 参考訳(メタデータ) (2022-03-19T05:20:25Z) - Towards Generalized Models for Task-oriented Dialogue Modeling on Spoken
Conversations [22.894541507068933]
本稿では,DSTC-10の音声対話課題における知識ベースタスク指向対話モデリングのための一般化モデルの構築について述べる。
我々は,人工誤り注入やラウンドトリップ音声変換など,手書きデータに対する広範なデータ拡張戦略を採用している。
本手法は, 客観的評価では3位, 最終公式評価では2位である。
論文 参考訳(メタデータ) (2022-03-08T12:26:57Z) - Plug-and-Play Conversational Models [62.77150879036442]
我々はデコード時にさらなる計算を必要としないアプローチを導入し、また大きな言語モデルの微調整も必要としない。
我々は、広範囲な自動的・人的評価を通じて、複数の望ましい属性について、生成した会話応答に対する高い制御を実証する。
論文 参考訳(メタデータ) (2020-10-09T03:17:51Z) - The Adapter-Bot: All-In-One Controllable Conversational Model [66.48164003532484]
本稿では、DialGPTなどの固定バックボーンモデルを用いて、異なるアダプタを介してオンデマンド対話スキルをトリガーする対話モデルを提案する。
スキルに応じて、モデルはテキスト、テーブル、強調応答などの複数の知識タイプを処理できる。
我々は,既存の会話モデルと比較し,自動評価を用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2020-08-28T10:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。