論文の概要: Overprotective Training Environments Fall Short at Testing Time: Let
Models Contribute to Their Own Training
- arxiv url: http://arxiv.org/abs/2103.11145v1
- Date: Sat, 20 Mar 2021 09:55:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 03:01:21.764708
- Title: Overprotective Training Environments Fall Short at Testing Time: Let
Models Contribute to Their Own Training
- Title(参考訳): テスト時間に過度に保護されたトレーニング環境:モデルが自身のトレーニングに貢献できるように
- Authors: Alberto Testoni, Raffaella Bernardi
- Abstract要約: その理由は、異なるトレーニング条件とテスト条件にあると推測する。
このギャップを埋めるために、人間と機械生成の対話のサンプルを含む混合バッチでモデルをトレーニングすることを提案します。
- 参考スコア(独自算出の注目度): 6.02280861819024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite important progress, conversational systems often generate dialogues
that sound unnatural to humans. We conjecture that the reason lies in their
different training and testing conditions: agents are trained in a controlled
"lab" setting but tested in the "wild". During training, they learn to generate
an utterance given the human dialogue history. On the other hand, during
testing, they must interact with each other, and hence deal with noisy data. We
propose to fill this gap by training the model with mixed batches containing
both samples of human and machine-generated dialogues. We assess the validity
of the proposed method on
- Abstract(参考訳): 重要な進歩にもかかわらず、会話システムはしばしば人間にとって不自然に聞こえる対話を生成する。
エージェントは制御された"lab"設定で訓練されるが、"wild"でテストされる。
訓練中は、人間の対話履歴から発話を生成することを学ぶ。
一方、テスト中は互いに対話し合わなければならないため、ノイズの多いデータを扱う必要がある。
本稿では,人間と機械による対話のサンプルを含む混合バッチを用いてモデルを訓練することで,このギャップを埋めることを提案する。
提案手法の有効性を評価する。
関連論文リスト
- Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement
Learning [85.3987745097806]
オフライン強化学習は、人間の話者から収集された静的データセットを使用して、対話エージェントをトレーニングするために使用することができる。
実験により,最近開発されたオフラインRL手法と言語モデルを組み合わせることで,現実的な対話エージェントが得られることが示された。
論文 参考訳(メタデータ) (2022-04-18T17:43:21Z) - Towards Robust Online Dialogue Response Generation [62.99904593650087]
これは、トレーニングと実世界のテストの相違によって引き起こされる可能性がある、と私たちは主張する。
本稿では, 発話レベルサンプリングと半発話レベルサンプリングの両方からなる階層的サンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T06:51:41Z) - Increasing Faithfulness in Knowledge-Grounded Dialogue with Controllable
Features [16.676172815172166]
本稿では,これらの証拠に忠実に保たれるように制御されたシステムに対して,生成的ニューラルダイアログモデルを訓練する上での課題について論じる。
既存のデータセットには、選択されたエビデンスに忠実な会話応答と、より主観的あるいはチトチャットスタイルの応答が混在している。
そこで本稿では,情報量と客観性を定量化することにより,これらの応答の異なるスタイルを解消するための異なる評価手法を提案する。
論文 参考訳(メタデータ) (2021-07-14T19:52:12Z) - Data Manipulation: Towards Effective Instance Learning for Neural
Dialogue Generation via Learning to Augment and Reweight [39.199204415979196]
現在の最先端のニューラルダイアログモデルは、データ駆動パラダイムに従って人間の会話から学習する。
人間の会話のオープンな性質のため、ユーザ生成トレーニングデータの質は大きく異なる。
信頼性の高いサンプルに対してデータ分布を積極的に再構成するデータ操作フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T12:14:09Z) - A Corpus of Controlled Opinionated and Knowledgeable Movie Discussions
for Training Neural Conversation Models [15.77024720697733]
映画討論の分野において,各対話が事前に特定された事実や意見に基づいている新しいラベル付き対話データセットを導入する。
本研究は,参加者が与えられた事実と意見プロファイルに忠実に従属する上で,収集した対話を徹底的に検証し,この点の一般的な品質が高いことを確認する。
我々は、このデータに基づいて訓練されたエンドツーエンドの自己注意デコーダモデルをベースラインとして導入し、意見応答を生成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T11:17:31Z) - Low-Resource Knowledge-Grounded Dialogue Generation [74.09352261943913]
我々は、限られた訓練例しか利用できないという自然な仮定のもと、知識基底による対話生成を考察する。
生成モデル全体から知識基底の対話に依存するパラメータを分離するために,不整合応答デコーダを考案する。
1/8のトレーニングデータだけで、我々のモデルは最先端のパフォーマンスを達成でき、ドメイン外の知識をうまく一般化できる。
論文 参考訳(メタデータ) (2020-02-24T16:20:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。