論文の概要: StyleBART: Decorate Pretrained Model with Style Adapters for
Unsupervised Stylistic Headline Generation
- arxiv url: http://arxiv.org/abs/2310.17743v2
- Date: Mon, 13 Nov 2023 06:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 19:47:03.823339
- Title: StyleBART: Decorate Pretrained Model with Style Adapters for
Unsupervised Stylistic Headline Generation
- Title(参考訳): StyleBART: 教師なしストリスティック見出し生成のためのスタイルアダプタ付きプレトレーニングモデル
- Authors: Hanqing Wang, Yajing Luo, Boya Xiong, Guanhua Chen, Yun Chen
- Abstract要約: StyleBARTは、スタイリスティックな見出し生成のための教師なしのアプローチである。
提案手法は,事前学習したBARTモデルを,異なるスタイルに責任を持つアダプタでデコレーションする。
StyleBARTは教師なしのスタイリスティックな見出し生成タスクにおいて,新しい最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 13.064106986202294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stylistic headline generation is the task to generate a headline that not
only summarizes the content of an article, but also reflects a desired style
that attracts users. As style-specific article-headline pairs are scarce,
previous researches focus on unsupervised approaches with a standard headline
generation dataset and mono-style corpora. In this work, we follow this line
and propose StyleBART, an unsupervised approach for stylistic headline
generation. Our method decorates the pretrained BART model with adapters that
are responsible for different styles and allows the generation of headlines
with diverse styles by simply switching the adapters. Different from previous
works, StyleBART separates the task of style learning and headline generation,
making it possible to freely combine the base model and the style adapters
during inference. We further propose an inverse paraphrasing task to enhance
the style adapters. Extensive automatic and human evaluations show that
StyleBART achieves new state-of-the-art performance in the unsupervised
stylistic headline generation task, producing high-quality headlines with the
desired style.
- Abstract(参考訳): スタイル的見出し生成(sylistic headline generation)とは、記事の内容を要約するだけでなく、ユーザを惹きつける所望のスタイルを反映する見出しを生成するタスクである。
スタイル固有の記事-見出しペアは少ないため、以前の研究では、標準的な見出し生成データセットとモノスタイルコーパスによる教師なしアプローチに重点を置いていた。
本稿では,この行に従って,スタイル的見出し生成のための教師なしアプローチであるstylebartを提案する。
提案手法は,事前学習したBARTモデルを,異なるスタイルに責任を持つアダプタでデコレーションし,単にアダプタを切り替えることで,多様なスタイルで見出しを生成する。
以前の作業とは異なり、StyleBARTはスタイル学習と見出し生成のタスクを分離し、推論中にベースモデルとスタイルアダプタを自由に組み合わせることを可能にする。
さらに,スタイルアダプタを強化するための逆パラフレージングタスクも提案する。
大規模自動評価と人的評価により、StyleBARTは教師なしのスタイルの見出し生成タスクにおいて新しい最先端のパフォーマンスを実現し、望ましいスタイルで高品質な見出しを生成する。
関連論文リスト
- StyleShot: A Snapshot on Any Style [20.41380860802149]
テスト時間チューニングを伴わない汎用的なスタイル転送には,優れたスタイル表現が不可欠であることを示す。
スタイル認識型エンコーダと、StyleGalleryと呼ばれるよく編成されたスタイルデータセットを構築することで、これを実現する。
当社のアプローチであるStyleShotは,テストタイムチューニングを必要とせずに,さまざまなスタイルを模倣する上で,シンプルかつ効果的なものです。
論文 参考訳(メタデータ) (2024-07-01T16:05:18Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - StyleCrafter: Enhancing Stylized Text-to-Video Generation with Style Adapter [78.75422651890776]
StyleCrafterは、トレーニング済みのT2Vモデルをスタイルコントロールアダプタで拡張する汎用的な方法である。
コンテンツスタイルのゆがみを促進するため,テキストプロンプトからスタイル記述を取り除き,参照画像のみからスタイル情報を抽出する。
StyleCrafterは、テキストの内容と一致し、参照画像のスタイルに似た高品質なスタイリングビデオを効率よく生成する。
論文 参考訳(メタデータ) (2023-12-01T03:53:21Z) - StyleAdapter: A Unified Stylized Image Generation Model [97.24936247688824]
StyleAdapterは、様々なスタイリング画像を生成することができる統一型スタイリング画像生成モデルである。
T2I-adapter や ControlNet のような既存の制御可能な合成手法と統合することができる。
論文 参考訳(メタデータ) (2023-09-04T19:16:46Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Visual Captioning at Will: Describing Images and Videos Guided by a Few
Stylized Sentences [49.66987347397398]
Few-Shot Stylized Visual Captioningは,任意のスタイルでキャプションを生成することを目的としている。
本稿では,条件付きエンコーダ-デコーダ言語モデルとビジュアルプロジェクションモジュールを用いたFS-StyleCapというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-31T04:26:01Z) - Fine-Grained Control of Artistic Styles in Image Generation [24.524863555822837]
生成モデルと敵の訓練により、様々な芸術様式のアート作品を人工的に生成することが可能になった。
スタイルの連続スペクトルを捕捉し,それをスタイル生成タスクに適用することを提案する。
我々の手法は、StyleGANのような共通の生成逆ネットワークで利用することができる。
論文 参考訳(メタデータ) (2021-10-19T21:51:52Z) - Hooks in the Headline: Learning to Generate Headlines with Controlled
Styles [69.30101340243375]
我々は,見出しを3つのスタイルで強化する新しいタスク,Styllistic Headline Generation (SHG)を提案する。
TitleStylistは、要約と再構築タスクをマルチタスクフレームワークに組み合わせることで、スタイル固有の見出しを生成する。
我々のモデルが生成したアトラクションスコアは、最先端の要約モデルの9.68%を超え、人間による参照よりも優れています。
論文 参考訳(メタデータ) (2020-04-04T17:24:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。