論文の概要: He Said, She Said: Style Transfer for Shifting the Perspective of
Dialogues
- arxiv url: http://arxiv.org/abs/2210.15462v1
- Date: Thu, 27 Oct 2022 14:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 14:02:51.885690
- Title: He Said, She Said: Style Transfer for Shifting the Perspective of
Dialogues
- Title(参考訳): 英首相:対話の転換に向けたスタイル転換を検討-関係者
- Authors: Amanda Bertsch, Graham Neubig, Matthew R. Gormley
- Abstract要約: そこで本研究では,対話を非公式な初対人から形式的な第三者に書き換える視点シフト(spective shift)という,新たなスタイル転送タスクを定義した。
サンプルアプリケーションとして,対話要約データセット(SAMSum)への視点シフトの適用により,抽出ニュース要約モデルのゼロショット性能が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 75.58367095888914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we define a new style transfer task: perspective shift, which
reframes a dialogue from informal first person to a formal third person
rephrasing of the text. This task requires challenging coreference resolution,
emotion attribution, and interpretation of informal text. We explore several
baseline approaches and discuss further directions on this task when applied to
short dialogues. As a sample application, we demonstrate that applying
perspective shifting to a dialogue summarization dataset (SAMSum) substantially
improves the zero-shot performance of extractive news summarization models on
this data. Additionally, supervised extractive models perform better when
trained on perspective shifted data than on the original dialogues. We release
our code publicly.
- Abstract(参考訳): そこで本研究では,テキストの形式的第1者から第3者への対話を再構成する視点シフトという,新たなスタイル移行タスクを定義する。
このタスクでは、コリファレンスの解決、感情の帰属、非公式なテキストの解釈に挑戦する必要がある。
本稿では,いくつかのベースラインアプローチを検討し,この課題を短い対話に適用する際の今後の方向性について考察する。
サンプルアプリケーションとして,対話要約データセット(SAMSum)への視点シフトの適用により,抽出ニュース要約モデルのゼロショット性能が大幅に向上することを示す。
さらに、教師付き抽出モデルは、元の対話よりも遠近偏移データで訓練した方が優れた性能を発揮する。
コードを公開しています。
関連論文リスト
- Few-Shot Dialogue Summarization via Skeleton-Assisted Prompt Transfer in
Prompt Tuning [47.336815771549524]
Skeleton-Assisted Prompt Transferは、対話状態追跡から対話要約へのプロンプト転送を改善する。
本稿では,アノテーションやドメイン知識を必要としない摂動型プローブを用いた新しい手法を提案する。
In-deepth analysis is demonstrated the effective of our method in help a cross-task knowledge transfer in few-shot dialogue summarization。
論文 参考訳(メタデータ) (2023-05-20T03:32:48Z) - DIONYSUS: A Pre-trained Model for Low-Resource Dialogue Summarization [127.714919036388]
DIONYSUSは、任意の新しいドメインでの対話を要約するための訓練済みエンコーダデコーダモデルである。
実験の結果,DIONYSUSは6つのデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2022-12-20T06:21:21Z) - Post-Training Dialogue Summarization using Pseudo-Paraphrasing [12.083992819138716]
本稿では,対話から物語への言い換えとして,事前訓練済み言語モデル(PLM)を提案する。
総合的な実験により,本手法は対話要約におけるバニラPLMを大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-04-28T13:42:19Z) - Precognition in Task-oriented Dialogue Understanding: Posterior
Regularization by Future Context [8.59600111891194]
本稿では,後続正則化手法を用いて,歴史的・将来の情報を共同でモデル化することを提案する。
これらの間のKL距離を最適化し、トレーニング中にモデルを正規化します。
2つの対話データセットの実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-03-07T09:58:50Z) - Modeling Coreference Relations in Visual Dialog [18.926582410644375]
ダイアログにおけるコア参照関係の発生は、視覚的質問応答よりも難しい課題となる。
教師なしの方法でダイアログにおけるコア参照を解消するモデルの能力を改善する2つのソフト制約を提案する。
論文 参考訳(メタデータ) (2022-03-06T15:22:24Z) - Topic-Aware Contrastive Learning for Abstractive Dialogue Summarization [41.75442239197745]
本研究は,コヒーレンス検出とサブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サブ・サミマリ・ジェネレーションという2つのトピック・アウェア・コントラスト学習目標を提案する。
ベンチマークデータセットの実験では、提案手法が強いベースラインを著しく上回ることを示した。
論文 参考訳(メタデータ) (2021-09-10T17:03:25Z) - Dialogue Summarization with Supporting Utterance Flow Modeling and Fact
Regularization [58.965859508695225]
本稿では、2つの新しいモジュールを用いた対話要約のためのエンドツーエンドニューラルネットワークを提案する。
サポートされた発話フローモデリングは、前者の発話から後者へのフォーカスを円滑にシフトさせることで、コヒーレントな要約を生成するのに役立つ。
事実の正則化は、モデルトレーニング中に生成された要約は、基礎と真実の要約と実際に一致するように促します。
論文 参考訳(メタデータ) (2021-08-03T03:09:25Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Modeling Long Context for Task-Oriented Dialogue State Generation [51.044300192906995]
本稿では,シンプルで効果的な発話タグ付け手法と双方向言語モデルを用いたマルチタスク学習モデルを提案する。
提案手法は,入力対話コンテキストシーケンスが長い場合に,ベースラインの性能が著しく低下する,という問題を解決する。
本実験では,MultiWOZ 2.0データセットにおいて,ベースラインに対して7.03%の相対的改善を実現し,新しい最先端のジョイントゴール精度を52.04%に設定した。
論文 参考訳(メタデータ) (2020-04-29T11:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。