論文の概要: Generating Coherent and Diverse Slogans with Sequence-to-Sequence
Transformer
- arxiv url: http://arxiv.org/abs/2102.05924v1
- Date: Thu, 11 Feb 2021 10:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-12 23:08:20.882321
- Title: Generating Coherent and Diverse Slogans with Sequence-to-Sequence
Transformer
- Title(参考訳): シーケンシャル・ツー・シーケンス変換器を用いたコヒーレント・多様なスローガンの生成
- Authors: Yiping Jin, Akshay Bhatia, Dittaya Wanvarie, Phu T. V. Le
- Abstract要約: 簡単な企業記述からスローガンを生成するシーケンス・ツー・シーケンス・トランスフォーマモデルを提案する。
スローガン生成用に微調整されたナイーブシーケンス・ツー・シーケンスモデルでは、偽情報を導入する傾向にある。
我々は、この問題に対処するためにデレキシライズを使用し、生成したスローガンの品質を大きなマージンで改善する。
- 参考スコア(独自算出の注目度): 0.1835211348413763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous work in slogan generation focused on generating novel slogans by
utilising templates mined from real slogans. While some such slogans can be
catchy, they are often not coherent with the company's focus or style across
their marketing communications because the templates are mined from other
companies' slogans. We propose a sequence-to-sequence transformer model to
generate slogans from a brief company description. A naive sequence-to-sequence
model fine-tuned for slogan generation is prone to introducing false
information, especially unrelated company names appearing in the training data.
We use delexicalisation to address this problem and improve the generated
slogans' quality by a large margin. Furthermore, we apply two simple but
effective approaches to generate more diverse slogans. Firstly, we train a
slogan generator conditioned on the industry. During inference time, by
changing the industry, we can obtain different "flavours" of slogans. Secondly,
instead of using only the company description as the input sequence, we sample
random paragraphs from the company's website. Surprisingly, the model can
generate meaningful slogans, even if the input sequence does not resemble a
company description. We validate the effectiveness of the proposed method with
both quantitative evaluation and qualitative evaluation. Our best model
achieved a ROUGE-1/-2/-L F1 score of 53.13/33.30/46.49. Besides, human
evaluators assigned the generated slogans an average score of 3.39 on a scale
of 1-5, indicating the system can generate plausible slogans with a quality
close to human-written ones (average score 3.55).
- Abstract(参考訳): スローガン生成のこれまでの仕事は、実際のスローガンから抽出されたテンプレートを利用して、新しいスローガンを生成することに集中しました。
そのようなスローガンの中にはキャッチーなものもあるが、テンプレートは他社のスローガンから採掘されるため、マーケティングコミュニケーション全体における会社の焦点やスタイルと一貫性がないことが多い。
短い会社説明からスローガンを生成するシーケンス・トゥ・シークエンス・トランスフォーマーモデルを提案する。
スローガン生成用に微調整されたナイーブシーケンスツーシーケンスモデルは、トレーニングデータに現れる偽情報、特に無関係な企業名を導入しやすい。
私たちはこの問題を解決するために語彙化を使い、生成したスローガンの品質を大きなマージンで改善します。
さらに,より多様なスローガンを生成するために,単純かつ効果的なアプローチを2つ適用する。
まず、業界で条件付けられたスローガン発生器を訓練します。
推測時間の間、業界を変えることで、スローガンの異なる「フレーバー」を得ることができる。
第2に,企業記述のみを入力シーケンスとして使用する代わりに,企業のWebサイトからランダムな段落をサンプリングする。
驚くべきことに、入力シーケンスが企業記述に似ていなくても、モデルは有意義なスローガンを生成することができる。
定量的評価と質的評価の両面で,提案手法の有効性を検証する。
ROUGE-1/-2/-L F1スコアは53.13/33.30/46.49。
また、人間の評価者は生成されたスローガンを平均3.39点のスコアで1-5点に割り当て、人間の記述に近い品質の可塑性スローガン(平均3.55点)を生成できることを示す。
関連論文リスト
- BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - Effective Slogan Generation with Noise Perturbation [2.80888070977859]
本稿では,新たに提案した1:Nマッチングペアデータセット上で,ノイズメトリクスを持つ事前学習型トランスフォーマーT5モデルを活用する新しいアポラチを提案する。
ROUGE1, ROUGELおよびCosine similarityに基づいて生成したスローガンを評価し, スローガンの特異性, コヒーレンス, 流布度の観点からヒトと評価した。
論文 参考訳(メタデータ) (2023-10-06T04:48:48Z) - A Unified Framework for Pun Generation with Humor Principles [31.70470387786539]
我々は、ホモフォニックとホモグラフィックの句を生成する統一的な枠組みを提案する。
句の3つの言語的属性を言語モデル(曖昧さ、特異性、驚き)に組み込む。
論文 参考訳(メタデータ) (2022-10-24T09:20:45Z) - Pruned Graph Neural Network for Short Story Ordering [0.7087237546722617]
コヒーレンスを最大化する順序に文を整理することは、文の順序付けとして知られている。
そこで本研究では,文章間のエッジを生成するために,短い物語の文中心グラフを構築する手法を提案する。
また,代名詞を代名詞の代名詞に置き換えることによって,文中心性グラフの文を効果的にエンコードすることが観察された。
論文 参考訳(メタデータ) (2022-03-13T22:25:17Z) - Attend and Select: A Segment Attention based Selection Mechanism for
Microblog Hashtag Generation [69.73215951112452]
ハッシュタグは、原文の様々な断片的な部分に由来する可能性のあるトークンまたはフレーズによって形成される。
本稿では,エンコーディング,セグメント選択,デコードという3つのフェーズからなるエンドツーエンドのトランスフォーマーベース生成モデルを提案する。
中国語のWeiboと英語のTwitterから新たに収集した2つの大規模ハッシュタグ生成データセットを紹介する。
論文 参考訳(メタデータ) (2021-06-06T15:13:58Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Diverse, Controllable, and Keyphrase-Aware: A Corpus and Method for News
Multi-Headline Generation [98.98411895250774]
ユーザ関心のキーワードで複数の見出しを生成することを提案する。
提案手法は,品質と多様性の観点から,最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-04-08T08:30:05Z) - Hooks in the Headline: Learning to Generate Headlines with Controlled
Styles [69.30101340243375]
我々は,見出しを3つのスタイルで強化する新しいタスク,Styllistic Headline Generation (SHG)を提案する。
TitleStylistは、要約と再構築タスクをマルチタスクフレームワークに組み合わせることで、スタイル固有の見出しを生成する。
我々のモデルが生成したアトラクションスコアは、最先端の要約モデルの9.68%を超え、人間による参照よりも優れています。
論文 参考訳(メタデータ) (2020-04-04T17:24:47Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。