論文の概要: Style Control for Schema-Guided Natural Language Generation
- arxiv url: http://arxiv.org/abs/2109.12211v1
- Date: Fri, 24 Sep 2021 21:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:40:27.098524
- Title: Style Control for Schema-Guided Natural Language Generation
- Title(参考訳): スキーマ型自然言語生成のためのスタイル制御
- Authors: Alicia Y. Tsai, Shereen Oraby, Vittorio Perera, Jiun-Yu Kao, Yuheng
Du, Anjali Narayan-Chen, Tagyoung Chung, Dilek Hakkani-Tur
- Abstract要約: タスク指向対話システムのための自然言語生成 (NLG) は、コンテンツを正確に、流動的に、一貫性を持って伝達することに焦点を当てている。
我々はスキーマ誘導型NLGのスタイリスティック制御と評価に重点を置いており、セマンティック制御とスタイリスティック制御の両立を目標としている。
- 参考スコア(独自算出の注目度): 10.821250408348655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural Language Generation (NLG) for task-oriented dialogue systems focuses
on communicating specific content accurately, fluently, and coherently. While
these attributes are crucial for a successful dialogue, it is also desirable to
simultaneously accomplish specific stylistic goals, such as response length,
point-of-view, descriptiveness, sentiment, formality, and empathy. In this
work, we focus on stylistic control and evaluation for schema-guided NLG, with
joint goals of achieving both semantic and stylistic control. We experiment in
detail with various controlled generation methods for large pretrained language
models: specifically, conditional training, guided fine-tuning, and guided
decoding. We discuss their advantages and limitations, and evaluate them with a
broad range of automatic and human evaluation metrics. Our results show that
while high style accuracy and semantic correctness are easier to achieve for
more lexically-defined styles with conditional training, stylistic control is
also achievable for more semantically complex styles using discriminator-based
guided decoding methods. The results also suggest that methods that are more
scalable (with less hyper-parameters tuning) and that disentangle content
generation and stylistic variations are more effective at achieving semantic
correctness and style accuracy.
- Abstract(参考訳): タスク指向対話システムのための自然言語生成 (NLG) は、特定のコンテンツを正確に、流動的に、コヒーレントに伝達することに焦点を当てている。
これらの属性は対話の成功には不可欠であるが、応答長、視点、記述性、感情、形式性、共感といった特定のスタイル目標を同時に達成することが望ましい。
本研究では,スキーマ誘導型nlgのスタイル制御と評価に焦点をあて,意味制御とスタイル制御の両立を目標とした。
本研究では,大規模事前訓練型言語モデルのための様々な制御された生成手法を詳細に実験する。
我々は,それらの利点と限界を議論し,幅広い自動評価指標と人間評価指標を用いて評価する。
条件付き学習では,高いスタイルの精度と意味的正当性を実現し易いが,識別器をベースとしたガイド付き復号法により,より意味論的に複雑なスタイルでもスタイリスティック制御が実現可能であることを示す。
また,提案手法はよりスケーラブルで(ハイパーパラメータチューニングの少ない),コンテンツ生成やスタイリスティックなバリエーションが,意味的正確性やスタイルの精度向上に有効であることが示唆された。
関連論文リスト
- SCAR: Efficient Instruction-Tuning for Large Language Models via Style Consistency-Aware Response Ranking [56.93151679231602]
本研究は、応答における2つの重要なスタイル的要素、すなわち言語形式と意味的前提を同定する。
これに触発されて、スタイル一貫性対応対応ランキング(SCAR)を導入する。
SCARは、そのレスポンススタイリスティックな一貫性に基づいて、トレーニングセット内の命令-レスポンスペアを優先順位付けする。
論文 参考訳(メタデータ) (2024-06-16T10:10:37Z) - StyleChat: Learning Recitation-Augmented Memory in LLMs for Stylized Dialogue Generation [43.29667566560533]
LLM(Large Language Models)の生成能力を活用することで38のスタイルを持つスタイル化された対話データセットであるStyleEvalを導入する。
本稿では,多タスク型学習戦略と再帰型メモリ戦略を通したスタイル化対話フレームワークであるStyleChatを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:26:18Z) - Dynamic Multi-Reward Weighting for Multi-Style Controllable Generation [15.959784404955402]
テクストスタイルは、対人的ダイナミクス(フォーマル性など)や著者の感情や態度(嫌悪感など)など、多様な情報の集合を表現する
オープンな疑問は、言語モデルを明示的に制御して、テキストを生成する際にターゲットスタイルを織り合わせる方法だ。
このような制御された生成の1つのアプローチは、多目的強化学習(RL)である。
判別器の校正出力や,判別器の大きさによる動的重み付けなど,多型報酬の定式化について検討する。
論文 参考訳(メタデータ) (2024-02-21T22:02:37Z) - Learning to Generate Text in Arbitrary Writing Styles [6.7308816341849695]
言語モデルは、潜在的に小さな文章サンプルに基づいて、著者固有のスタイルでテキストを作成することが望ましい。
本稿では,テクスチャ的特徴を捉えた対照的に訓練された表現を用いて,ターゲットスタイルのテキストを生成するための言語モデルを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:58:52Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Context-Aware Language Modeling for Goal-Oriented Dialogue Systems [84.65707332816353]
我々は、部分的に観察されたマルコフ決定過程としてゴール指向対話を定式化する。
目的を意識して言語モデルを微調整する,シンプルで効果的な手法を考案する。
本研究では,AirDialogue を用いた実践的なフライト予約タスクについて評価する。
論文 参考訳(メタデータ) (2022-04-18T17:23:11Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z) - StyleDGPT: Stylized Response Generation with Pre-trained Language Models [39.526613595499356]
KL損失とスタイル分類器を導入し、単語レベルと文レベルの両方において、ターゲットスタイルに対して応答生成を操る。
我々のモデルは、スタイル整合性とコンテキスト整合性の両方の観点から、最先端の手法を著しく上回ります。
論文 参考訳(メタデータ) (2020-10-06T09:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。