論文の概要: Will I Sound Like Me? Improving Persona Consistency in Dialogues through
Pragmatic Self-Consciousness
- arxiv url: http://arxiv.org/abs/2004.05816v2
- Date: Tue, 6 Oct 2020 08:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 23:51:59.341544
- Title: Will I Sound Like Me? Improving Persona Consistency in Dialogues through
Pragmatic Self-Consciousness
- Title(参考訳): 私のように聞こえるか?
実践的自己意識による対話におけるペルソナ一貫性の向上
- Authors: Hyunwoo Kim, Byeongchang Kim, Gunhee Kim
- Abstract要約: 一貫性に対処する最近のモデルは、しばしば追加の自然言語推論(NLI)ラベルでトレーニングするか、あるいは一貫性を維持するためにトレーニングされた追加モジュールを生成エージェントにアタッチする。
社会的認知と実用性に触発されて、私たちは既存の対話エージェントに、想像上のリスナーを通して、公的な自己意識を持たせました。
我々のアプローチは、Rational Speech Actsフレームワークに基づいて、会話エージェントに矛盾の発声を控えるように強制することができる。
- 参考スコア(独自算出の注目度): 62.55060760615656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the task of improving persona consistency of dialogue agents.
Recent models tackling consistency often train with additional Natural Language
Inference (NLI) labels or attach trained extra modules to the generative agent
for maintaining consistency. However, such additional labels and training can
be demanding. Also, we find even the best-performing persona-based agents are
insensitive to contradictory words. Inspired by social cognition and
pragmatics, we endow existing dialogue agents with public self-consciousness on
the fly through an imaginary listener. Our approach, based on the Rational
Speech Acts framework (Frank and Goodman, 2012), can enforce dialogue agents to
refrain from uttering contradiction. We further extend the framework by
learning the distractor selection, which has been usually done manually or
randomly. Results on Dialogue NLI (Welleck et al., 2019) and PersonaChat (Zhang
et al., 2018) dataset show that our approach reduces contradiction and improves
consistency of existing dialogue models. Moreover, we show that it can be
generalized to improve context-consistency beyond persona in dialogues.
- Abstract(参考訳): 対話エージェントのパーソナリティ一貫性を改善するタスクについて検討する。
一貫性に対処する最近のモデルは、しばしば追加の自然言語推論(NLI)ラベルでトレーニングするか、あるいは一貫性を維持するためにトレーニングされた追加モジュールを生成エージェントにアタッチする。
しかし、このような追加のラベルや訓練は要求される。
また,最も優れたペルソナ系エージェントでさえ,矛盾する単語に敏感であることがわかった。
社会的認知と実用性に触発されて、私たちは既存の対話エージェントに、想像上のリスナーを通して、公的な自意識を持たせた。
弊社のアプローチは,Rational Speech Acts framework(Frank and Goodman, 2012)に基づいて,対話エージェントによる発話矛盾の回避を可能にする。
我々は、通常手動またはランダムに行われる散逸子選択を学習することで、フレームワークをさらに拡張する。
対話nli (welleck et al., 2019) とペルソナチャット (zhang et al., 2018) のデータセットの結果は、我々のアプローチが矛盾を減らし、既存の対話モデルの一貫性を向上させることを示している。
さらに,対話におけるペルソナ以外の文脈整合性を改善するために一般化できることを示す。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Talk With Human-like Agents: Empathetic Dialogue Through Perceptible Acoustic Reception and Reaction [23.115506530649988]
PerceptiveAgentは、より深い意味またはより微妙な意味を識別するために設計された共感的マルチモーダル対話システムである。
PerceptiveAgentは入力音声から音響情報を知覚し、自然言語で記述された話し方に基づいて共感応答を生成する。
論文 参考訳(メタデータ) (2024-06-18T15:19:51Z) - Instruct Once, Chat Consistently in Multiple Rounds: An Efficient Tuning Framework for Dialogue [13.774377524019723]
マルチラウンド対話チューニング(Midi-Tuning)フレームワークを提案する。
エージェントとユーザを、大きな言語モデル上に構築された2つのアダプタで個別にモデル化する。
我々のフレームワークは従来の微調整よりも優れており、対話の整合性を改善する大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-10T14:52:52Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - STRUDEL: Structured Dialogue Summarization for Dialogue Comprehension [42.57581945778631]
抽象的な対話要約は、自然言語処理における重要なスタンドアロンタスクとみなされてきた。
本稿では,新たな対話要約タスクであるSTRUctured DiaLoguE Summarizationを提案する。
変換器エンコーダ言語モデルの対話理解性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-12-24T04:39:54Z) - Learning-by-Narrating: Narrative Pre-Training for Zero-Shot Dialogue
Comprehension [48.483910831143724]
対話を補完するには、発話中の様々なキー情報をキャプチャするモデルが必要である。
そこで我々は,対話入力からキー情報をナレーションすることで学習する,物語誘導型事前学習戦略を開発した。
論文 参考訳(メタデータ) (2022-03-19T05:20:25Z) - Structural Pre-training for Dialogue Comprehension [51.215629336320305]
本稿では,SPIDER, Structure Pre-trained DialoguE Readerについて述べる。
対話のような特徴をシミュレートするために,元のLM目的に加えて,2つの訓練目標を提案する。
広く使われている対話ベンチマークの実験結果から,新たに導入した自己教師型タスクの有効性が検証された。
論文 参考訳(メタデータ) (2021-05-23T15:16:54Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。