論文の概要: Can You Put it All Together: Evaluating Conversational Agents' Ability
to Blend Skills
- arxiv url: http://arxiv.org/abs/2004.08449v1
- Date: Fri, 17 Apr 2020 20:51:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:15:50.988221
- Title: Can You Put it All Together: Evaluating Conversational Agents' Ability
to Blend Skills
- Title(参考訳): 会話エージェントのスキルをブレンドする能力を評価する
- Authors: Eric Michael Smith, Mary Williamson, Kurt Shuster, Jason Weston, Y-Lan
Boureau
- Abstract要約: 孤立した能力に向けて訓練されたモデルを組み合わせる方法について検討する。
我々は、これらの機能が自然な会話の中でどのように連携するかを分析するために、新しいデータセットであるBlendedSkillTalkを提案する。
実験の結果,特定の機能に焦点をあてたタスクを複数タスクでマルチタスクすることで,会話性能が向上することがわかった。
- 参考スコア(独自算出の注目度): 31.42833993937429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Being engaging, knowledgeable, and empathetic are all desirable general
qualities in a conversational agent. Previous work has introduced tasks and
datasets that aim to help agents to learn those qualities in isolation and
gauge how well they can express them. But rather than being specialized in one
single quality, a good open-domain conversational agent should be able to
seamlessly blend them all into one cohesive conversational flow. In this work,
we investigate several ways to combine models trained towards isolated
capabilities, ranging from simple model aggregation schemes that require
minimal additional training, to various forms of multi-task training that
encompass several skills at all training stages. We further propose a new
dataset, BlendedSkillTalk, to analyze how these capabilities would mesh
together in a natural conversation, and compare the performance of different
architectures and training schemes. Our experiments show that multi-tasking
over several tasks that focus on particular capabilities results in better
blended conversation performance compared to models trained on a single skill,
and that both unified or two-stage approaches perform well if they are
constructed to avoid unwanted bias in skill selection or are fine-tuned on our
new task.
- Abstract(参考訳): エンゲージメント、知識、共感は、会話エージェントにおいて望ましい一般的な性質である。
従来の作業では、エージェントがこれらの品質を分離して学習し、それらがどれだけうまく表現できるかを測定するのに役立つタスクとデータセットが導入されていた。
しかし、単一の品質に特化するのではなく、優れたオープンドメインの会話エージェントは、それらを単一の結合的な会話フローにシームレスにブレンドできるべきです。
本研究では、最小限の追加訓練を必要とする単純なモデルアグリゲーションスキームから、全ての訓練段階において複数のスキルを含む様々な形態のマルチタスクトレーニングまで、孤立能力に向けて訓練されたモデルを組み合わせる方法について検討する。
さらにBlendedSkillTalkという新しいデータセットを提案し、これらの機能を自然な会話でどのように組み合わせるかを分析し、異なるアーキテクチャとトレーニングスキームのパフォーマンスを比較します。
実験の結果,特定の能力に着目した複数のタスクをマルチタスクすることで,単一のスキルで訓練されたモデルと比較して,会話性能が向上すること,また,スキル選択の望ましくないバイアスを回避するために構築された場合や,新たなタスクに微調整された場合,統一的あるいは二段階的なアプローチが良好に動作することがわかった。
関連論文リスト
- Musketeer: Joint Training for Multi-task Vision Language Model with Task Explanation Prompts [75.75548749888029]
本稿では,全てのタスクに対してパラメータを共同で訓練し,複数の異種タスク間で完全に共有する視覚言語モデルを提案する。
単一のモデルで、Musteteerは単一のタスクでトレーニングされた強いベースラインに匹敵する結果を得る。
論文 参考訳(メタデータ) (2023-05-11T17:57:49Z) - Friend-training: Learning from Models of Different but Related Tasks [44.25961408685873]
フレンドトレーニングは、クロスタスクのセルフトレーニングフレームワークである。
異なるタスクを行うために訓練されたモデルは、反復的なトレーニング、擬似ラベル付け、再訓練プロセスで使用される。
フレンドトレーニングフレームワークでトレーニングしたモデルは,強靭なベースラインと比較して,最高のパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T15:00:56Z) - Learning Options via Compression [62.55893046218824]
そこで本研究では,スキル記述長に対するペナルティと,最大限の目標を組み合わさった新たな目的を提案する。
我々の目的は、最大化可能性のみから学んだスキルと比較して、下流のタスクを少ないサンプルで解くスキルを学ぶことである。
論文 参考訳(メタデータ) (2022-12-08T22:34:59Z) - Modular Adaptive Policy Selection for Multi-Task Imitation Learning
through Task Division [60.232542918414985]
マルチタスク学習は、しばしば負の伝達に悩まされ、タスク固有の情報を共有する。
これは、プロトポリケーションをモジュールとして使用して、タスクを共有可能な単純なサブ振る舞いに分割する。
また、タスクを共有サブ行動とタスク固有のサブ行動の両方に自律的に分割する能力を示す。
論文 参考訳(メタデータ) (2022-03-28T15:53:17Z) - Combining Modular Skills in Multitask Learning [149.8001096811708]
モジュラー設計は、ニューラルネットワークが様々な知識の面をアンタングルして再結合し、新しいタスクにより系統的に一般化することを奨励する。
この研究では、各タスクは(潜在的に小さな)インベントリから潜在的な離散スキルのサブセットと関連付けられていると仮定する。
ネットワークのモジュラー設計により、強化学習におけるサンプル効率が著しく向上し、教師あり学習における数ショットの一般化が図られる。
論文 参考訳(メタデータ) (2022-02-28T16:07:19Z) - Uni-Perceiver: Pre-training Unified Architecture for Generic Perception
for Zero-shot and Few-shot Tasks [73.63892022944198]
我々はUni-Perceiverという汎用認識アーキテクチャを提案する。
様々なモダリティやタスクを、統一されたモデリングと共有パラメータで処理します。
その結果、チューニングなしで事前学習したモデルは、新しいタスクでも合理的なパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2021-12-02T18:59:50Z) - Towards More Generalizable One-shot Visual Imitation Learning [81.09074706236858]
汎用ロボットは、幅広いタスクを習得し、過去の経験を生かして、新しいタスクを素早く学ぶことができるべきである。
ワンショット模倣学習(OSIL)は、専門家のデモンストレーションでエージェントを訓練することで、この目標にアプローチする。
我々は、より野心的なマルチタスク設定を調査することで、より高度な一般化能力を追求する。
論文 参考訳(メタデータ) (2021-10-26T05:49:46Z) - Boosting a Model Zoo for Multi-Task and Continual Learning [15.110807414130923]
モデル動物園」はモデルのアンサンブルを構築するアルゴリズムであり、それぞれが非常に小さく、小さなタスクセットで訓練されている。
モデルZooは,マルチタスクおよび連続学習における最先端手法と比較して,予測精度が大きく向上する。
論文 参考訳(メタデータ) (2021-06-06T04:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。