論文の概要: Romantic-Computing
- arxiv url: http://arxiv.org/abs/2206.11864v1
- Date: Wed, 1 Jun 2022 14:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 03:36:38.229255
- Title: Romantic-Computing
- Title(参考訳): ロマンティック計算
- Authors: Elizabeth Horishny
- Abstract要約: 我々は、初期のイギリスロマン主義のスタイルで詩を書く様々なテキスト生成モデルの能力を比較する。
キャラクタレベルリカレントニューラルネットワークは、トランスモデルに比べてはるかにパフォーマンスが悪かった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we compare various text generation models' ability to write
poetry in the style of early English Romanticism. These models include:
Character-Level Recurrent Neural Networks with Long Short-Term Memory, Hugging
Face's GPT-2, OpenAI's GPT-3, and EleutherAI's GPT-NEO. Quality was measured
based syllable count and coherence with the automatic evaluation metric GRUEN.
Character-Level Recurrent Neural Networks performed far worse compared to
transformer models. And, as parameter-size increased, the quality of
transformer models' poems improved. These models are typically not compared in
a creative context, and we are happy to contribute.
- Abstract(参考訳): 本稿では,様々なテキスト生成モデルが初期の英語ロマン主義のスタイルで詩を書く能力を比較した。
これらのモデルには、長い短期記憶を持つ文字レベルリカレントニューラルネットワーク、Hugging FaceのGPT-2、OpenAIのGPT-3、EleutherAIのGPT-NEOが含まれる。
音節数とコヒーレンスを自動評価指標GRUENを用いて測定した。
キャラクタレベルリカレントニューラルネットワークは、トランスモデルに比べてはるかにパフォーマンスが悪かった。
また,パラメータサイズが大きくなるにつれて,変圧器モデルの詩の質が向上した。
これらのモデルは通常、創造的なコンテキストでは比較されず、喜んで貢献します。
関連論文リスト
- GPT Czech Poet: Generation of Czech Poetic Strophes with Language Models [0.4444634303550442]
チェコ語で詩を生成するための新しいモデルを提案する。
詩文中のストロフェパラメータを明示的に指定することで生成プロセスの指導がモデルの有効性を強く向上することを示す。
論文 参考訳(メタデータ) (2024-06-18T06:19:45Z) - Automatic Generation of German Drama Texts Using Fine Tuned GPT-2 Models [3.1360838651190797]
この研究は、ドイツのドラマテキストの自動生成に向けられている。
GPT-2モデルを微調整し、キーワードに基づいてシーンの輪郭を生成する方法と、シーンの輪郭からシーンを生成する第2モデルを微調整する手法を提案する。
論文 参考訳(メタデータ) (2023-01-08T23:12:46Z) - Modern French Poetry Generation with RoBERTa and GPT-2 [1.9014535120129343]
このモデルは、詩生成タスクのために微調整された2つの事前訓練されたニューラルモデルで構成されている。
モデルのエンコーダはRoBERTaベースであり、デコーダはGPT-2ベースである。
我々の評価は、このモデルがフランス語の詩をうまく作ることができることを示している。
論文 参考訳(メタデータ) (2022-12-06T12:10:14Z) - Elaboration-Generating Commonsense Question Answering at Scale [77.96137534751445]
一般的な感覚を必要とする質問応答では、言語モデル(例えばGPT-3)が背景知識を表すテキストを生成するために使われてきた。
より小さな言語モデルを微調整して有用な中間コンテキストを生成します。
私たちのフレームワークは、2つの言語モデルの更新 – 開発中のジェネレータと応答予測器 – を交互に行います。
論文 参考訳(メタデータ) (2022-09-02T18:32:09Z) - GenerSpeech: Towards Style Transfer for Generalizable Out-Of-Domain
Text-to-Speech Synthesis [68.42632589736881]
本稿では,OODカスタム音声の高忠実度ゼロショットスタイル転送に向けたテキスト音声合成モデルGenerSpeechを提案する。
GenerSpeechは、2つのコンポーネントを導入することで、音声のバリエーションをスタイルに依存しない部分とスタイル固有の部分に分解する。
ゼロショット方式の転送について評価したところ,GenerSpeechは音質やスタイルの類似性の観点から,最先端のモデルを上回っていることがわかった。
論文 参考訳(メタデータ) (2022-05-15T08:16:02Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z) - SP-GPT2: Semantics Improvement in Vietnamese Poetry Generation [1.9107347888374506]
GPT2(Generative Pretraining Transformer 2)は、優れた成功を収めた技術手法の1つである。
本稿では,ベトナムの伝統的な詩の世代における GPT2 の力を調べるための第一歩を踏み出した。
我々はスタイルルール辞書を含むテンプレートで生成された詩に対する最初の計算スコアリングモジュールをリリースした。
論文 参考訳(メタデータ) (2021-10-10T14:31:08Z) - OptAGAN: Entropy-based finetuning on text VAE-GAN [1.941730292017383]
最近、変分オートエンコーダ(VAE)がリリースされた。
BERTとGPT-2の2つの事前訓練モデルを組み合わせている。
独創的だが、非常に人間らしい文体を創出する。
論文 参考訳(メタデータ) (2021-09-01T08:23:19Z) - Improving Generation and Evaluation of Visual Stories via Semantic
Consistency [72.00815192668193]
一連の自然言語キャプションが与えられた場合、エージェントはキャプションに対応する一連の画像を生成する必要がある。
それまでの作業では、このタスクで合成テキスト・画像モデルより優れた繰り返し生成モデルを導入してきた。
従来のモデリング手法には、デュアルラーニングフレームワークの追加など、いくつかの改善点を提示する。
論文 参考訳(メタデータ) (2021-05-20T20:42:42Z) - GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer [119.70961704127157]
近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
論文 参考訳(メタデータ) (2021-02-01T11:08:45Z) - Phone Features Improve Speech Translation [69.54616570679343]
音声翻訳の終末モデル(ST)はより緊密にカップル音声認識(ASR)と機械翻訳(MT)を行う
カスケードモデルとエンド・ツー・エンドモデルを高,中,低リソース条件で比較し,カスケードがより強いベースラインを維持していることを示す。
これらの機能は両方のアーキテクチャを改善し、エンド・ツー・エンドのモデルとカスケードのギャップを埋め、これまでの学術的成果を最大9BLEUで上回ります。
論文 参考訳(メタデータ) (2020-05-27T22:05:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。