論文の概要: Audience-Centric Natural Language Generation via Style Infusion
- arxiv url: http://arxiv.org/abs/2301.10283v1
- Date: Tue, 24 Jan 2023 19:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 16:34:11.181980
- Title: Audience-Centric Natural Language Generation via Style Infusion
- Title(参考訳): スタイルインフュージョンによるオーディエンス中心自然言語生成
- Authors: Samraj Moorjani, Adit Krishnan, Hari Sundaram, Ewa Maslowska, Aravind
Sankar
- Abstract要約: 本稿では,事前学習された言語生成モデルにおける聴衆のスタイル的嗜好に影響を及ぼす,新しいスタイル注入の課題を提案する。
限定的な人間の判断を利用して、スタイル分析モデルをブートストラップし、シードセットの判断を強化する。
我々の注入アプローチは、ジェネリックテキストプロンプトを用いた魅力的なスタイル化された例を生成することができる。
- 参考スコア(独自算出の注目度): 5.6732899077715375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adopting contextually appropriate, audience-tailored linguistic styles is
critical to the success of user-centric language generation systems (e.g.,
chatbots, computer-aided writing, dialog systems). While existing approaches
demonstrate textual style transfer with large volumes of parallel or
non-parallel data, we argue that grounding style on audience-independent
external factors is innately limiting for two reasons. First, it is difficult
to collect large volumes of audience-specific stylistic data. Second, some
stylistic objectives (e.g., persuasiveness, memorability, empathy) are hard to
define without audience feedback.
In this paper, we propose the novel task of style infusion - infusing the
stylistic preferences of audiences in pretrained language generation models.
Since humans are better at pairwise comparisons than direct scoring - i.e., is
Sample-A more persuasive/polite/empathic than Sample-B - we leverage limited
pairwise human judgments to bootstrap a style analysis model and augment our
seed set of judgments. We then infuse the learned textual style in a GPT-2
based text generator while balancing fluency and style adoption. With
quantitative and qualitative assessments, we show that our infusion approach
can generate compelling stylized examples with generic text prompts. The code
and data are accessible at https://github.com/CrowdDynamicsLab/StyleInfusion.
- Abstract(参考訳): コンテキスト的に適切なオーディエンス対応言語スタイルを採用することは、ユーザ中心の言語生成システム(例えば、チャットボット、コンピュータ支援ライティング、ダイアログシステム)の成功に不可欠である。
既存のアプローチでは,大量の並列データや非並列データによるテキストの転送を実証しているが,観客非依存の外部要因に基づく基礎的なスタイルは,2つの理由から本質的に制限されている。
まず,観衆特有のスタイルデータを大量に収集することは困難である。
第二に、いくつかのスタイル的目的(説得性、記憶可能性、共感など)は聴衆のフィードバックなしでは定義が難しい。
本稿では,事前学習された言語生成モデルにおける聴衆のスタイル的嗜好に影響を及ぼす,スタイル注入の新しい課題を提案する。
人間は直接得点よりも対数比較が優れている(つまり、サンプルはサンプルbよりも説得力があり、ポリト/共感性が高い)ので、我々は限定された対数判断を利用して、スタイル分析モデルをブートストラップし、シードセットの判断を強化します。
そして、学習したテキストスタイルをGPT-2ベースのテキストジェネレータに注入し、流速とスタイルの採用のバランスをとる。
定量的・質的評価により,我々の輸液アプローチが汎用テキストプロンプトを用いた説得力のあるスタイライゼーション例を生成できることを示す。
コードとデータはhttps://github.com/CrowdDynamicsLab/StyleInfusionでアクセスできる。
関連論文リスト
- Dynamic Multi-Reward Weighting for Multi-Style Controllable Generation [15.959784404955402]
テクストスタイルは、対人的ダイナミクス(フォーマル性など)や著者の感情や態度(嫌悪感など)など、多様な情報の集合を表現する
オープンな疑問は、言語モデルを明示的に制御して、テキストを生成する際にターゲットスタイルを織り合わせる方法だ。
このような制御された生成の1つのアプローチは、多目的強化学習(RL)である。
判別器の校正出力や,判別器の大きさによる動的重み付けなど,多型報酬の定式化について検討する。
論文 参考訳(メタデータ) (2024-02-21T22:02:37Z) - Context Disentangling and Prototype Inheriting for Robust Visual
Grounding [56.63007386345772]
ビジュアルグラウンドディング(VG)は、与えられた言語クエリに基づいて、画像内の特定のターゲットを特定することを目的としている。
本稿では,両シーンを両シーンで処理する堅牢な視覚的グラウンド化のために,コンテキストの切り離しとプロトタイプを継承する新しいフレームワークを提案する。
本手法は両シナリオにおいて最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2023-12-19T09:03:53Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - Self-supervised Context-aware Style Representation for Expressive Speech
Synthesis [23.460258571431414]
本稿では,平文からスタイル表現を自己教師型で学習するための新しいフレームワークを提案する。
感情のレキシコンを活用し、対照的な学習と深いクラスタリングを使用する。
本手法は,音声ブック音声におけるドメイン内およびドメイン外テストセットの主観的評価に基づいて,改善された結果を実現する。
論文 参考訳(メタデータ) (2022-06-25T05:29:48Z) - From Theories on Styles to their Transfer in Text: Bridging the Gap with
a Hierarchical Survey [10.822011920177408]
スタイル転送は、既存のテキストを書き換え、望ましいスタイル特性を示すパラフレーズを作成することを目的としている。
少数の調査では、この分野の方法論的な概要が示されているが、研究者が特定のスタイルにフォーカスするのを支援していない。
それらを階層に整理し、それぞれの定義の課題を強調し、現在の研究状況のギャップを指摘します。
論文 参考訳(メタデータ) (2021-10-29T15:53:06Z) - A Review of Text Style Transfer using Deep Learning [0.0]
テキスト・スタイル・トランスファー(英: Text style transfer)とは、文が書かれた文のスタイルを適応・変更する作業である。
我々は、自然言語理解と生成の分野での現在の成功の原動力となったディープニューラルネットワークの技術的進歩を指摘する。
このレビューは、テキストスタイルの転送プロセス、すなわち表現学習と文生成の2つの重要な段階を中心に構築されている。
論文 参考訳(メタデータ) (2021-09-30T14:06:36Z) - Stylistic Retrieval-based Dialogue System with Unparallel Training Data [19.777894827625275]
本稿では,並列データを持たない特定のペルソナの言語スタイルを模倣するために,汎用的な検索ベース対話システムに適応するフレキシブルなフレームワークを提案する。
提案手法は, ジェルゴンの使用法を学習し, ジェルゴンを組み込むことで, ジェネリックな会話をスタイル化されたものに書き換えることによって, スタイル化されたデータの自動生成に基づく。
論文 参考訳(メタデータ) (2021-09-12T09:56:24Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Improving Disentangled Text Representation Learning with
Information-Theoretic Guidance [99.68851329919858]
自然言語の独特な性質は、テキスト表現の分離をより困難にする。
情報理論にインスパイアされた本研究では,テキストの不整合表現を効果的に表現する手法を提案する。
条件付きテキスト生成とテキストスタイル転送の両方の実験は、不整合表現の質を実証する。
論文 参考訳(メタデータ) (2020-06-01T03:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。