論文の概要: Bits of Grass: Does GPT already know how to write like Whitman?
- arxiv url: http://arxiv.org/abs/2305.11064v1
- Date: Wed, 10 May 2023 09:02:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 10:26:15.313236
- Title: Bits of Grass: Does GPT already know how to write like Whitman?
- Title(参考訳): Grass: GPTはすでにWhitmanのように書く方法を知っていますか?
- Authors: Piotr Sawicki, Marek Grzes, Fabricio Goes, Dan Brown, Max Peeperkorn,
Aisha Khatun
- Abstract要約: 本研究では, GPT-3.5, GPT-3.5-turbo (ChatGPT) および GPT-4 モデルを用いて, ゼロショットプロンプトと多ショットプロンプトを用いて, 特定の著者のスタイルで詩を生成する能力について検討した。
自動評価により、特定の著者のスタイルで詩を生成するために微調整されていないモデルの性能を評価する。
- 参考スコア(独自算出の注目度): 1.9084046244608193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study examines the ability of GPT-3.5, GPT-3.5-turbo (ChatGPT) and GPT-4
models to generate poems in the style of specific authors using zero-shot and
many-shot prompts (which use the maximum context length of 8192 tokens). We
assess the performance of models that are not fine-tuned for generating poetry
in the style of specific authors, via automated evaluation. Our findings
indicate that without fine-tuning, even when provided with the maximum number
of 17 poem examples (8192 tokens) in the prompt, these models do not generate
poetry in the desired style.
- Abstract(参考訳): 本研究では, GPT-3.5, GPT-3.5-turbo (ChatGPT) および GPT-4 モデルを用いて, ゼロショットプロンプトと多ショットプロンプト(最大コンテクスト長8192トークン)を用いて, 特定の著者のスタイルで詩を生成する能力について検討した。
自動評価により、特定の著者のスタイルで詩を生成するために微調整されていないモデルの性能を評価する。
本研究は,17例 (8192トークン) の最大数をプロンプトに与えても, 微調整がなければ, これらのモデルが所望の様式で詩を生成できないことを示す。
関連論文リスト
- Does ChatGPT Have a Poetic Style? [0.6827423171182154]
我々は、GPT-3.5とGPT-4モデルに、24種類の詩形式とスタイルで英語詩を生成するよう促す。
得られた5.7k詩を分析し、これらを詩財団とアメリカ詩人アカデミーの3.7k詩のサンプルと比較する。
GPTモデル、特にGPT-4は、共通言語と非共通言語の両方で詩を作成できることがわかった。
論文 参考訳(メタデータ) (2024-10-20T06:01:34Z) - Identifying the style by a qualified reader on a short fragment of
generated poetry [0.0]
私は3つの文字ベースのLSTMモデルをスタイル再現評価に使用しました。
これら3つのモデルは、有名なロシア語を話す詩人たちによって、テキストのコーパスで訓練された。
スタイルの定義の正確さは、評価者が詩人を暗記できる場合、増加する。
論文 参考訳(メタデータ) (2023-06-05T10:55:15Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - A Comprehensive Capability Analysis of GPT-3 and GPT-3.5 Series Models [71.42197262495056]
GPTシリーズモデルは、その例外的な自然言語処理能力により、かなりの注目を集めている。
2つのGPT-3系列モデルと4つのGPT-3.5系列モデルからなる6つの代表モデルを選択する。
21個のデータセットを用いて,9つの自然言語理解タスク(NLU)の性能評価を行った。
実験の結果,NLUタスクにおけるGPTシリーズモデルの全体的な能力は,モデルが進化するにつれて徐々に向上しないことがわかった。
論文 参考訳(メタデータ) (2023-03-18T14:02:04Z) - ByGPT5: End-to-End Style-conditioned Poetry Generation with Token-free
Language Models [23.381986209234157]
そこで本研究では,韻律,韻律,韻律などの文体に規定された終末詩の生成について検討する。
我々は、新しいトークンフリーデコーダのみの言語モデルであるBYGPT5の事前トレーニングに成功した。
ByGPT5は,mT5,BYT5,GPT-2,ChatGPTなどの他のモデルよりも優れ,パラメータ効率が良く,人間に好適な性能を示す。
論文 参考訳(メタデータ) (2022-12-20T17:49:49Z) - Generation of Chinese classical poetry based on pre-trained model [1.6114012813668934]
本稿では,主にBARTやその他の事前学習モデルを用いて,韻律的詩文を生成する。
一連のAI詩のチューリング問題を開発し、詩や詩を書く研究者のグループによってレビューされた。
著者が研究した詩文生成のモデルは、先進的な学者と区別できない作品を一般化している。
論文 参考訳(メタデータ) (2022-11-04T16:05:31Z) - SP-GPT2: Semantics Improvement in Vietnamese Poetry Generation [1.9107347888374506]
GPT2(Generative Pretraining Transformer 2)は、優れた成功を収めた技術手法の1つである。
本稿では,ベトナムの伝統的な詩の世代における GPT2 の力を調べるための第一歩を踏み出した。
我々はスタイルルール辞書を含むテンプレートで生成された詩に対する最初の計算スコアリングモジュールをリリースした。
論文 参考訳(メタデータ) (2021-10-10T14:31:08Z) - Reframing Instructional Prompts to GPTk's Language [72.69833640335519]
本稿では,モデル設計者が言語モデルに対して効果的なプロンプトを作成するためのリフレーミング手法を提案する。
その結果、リフレーミングはサンプルの複雑さを減らしながら、数ショットの学習性能を14%向上させることがわかった。
GPT3では、大規模なデータセットでモデルやプロンプトをチューニングすることは不可能である。
論文 参考訳(メタデータ) (2021-09-16T09:44:43Z) - CCPM: A Chinese Classical Poetry Matching Dataset [50.90794811956129]
本稿では,詩のマッチングによるモデルの意味的理解を評価するための新しい課題を提案する。
この課題は、現代漢訳の漢詩では、4人の候補者の中から1行の漢詩を選ばなければならない。
このデータセットを構築するために、まず中国古典詩と現代中国語の翻訳の並列データを得る。
論文 参考訳(メタデータ) (2021-06-03T16:49:03Z) - TuringAdvice: A Generative and Dynamic Evaluation of Language Use [90.3029315711237]
言語理解モデルのための新しい課題タスクとデータセットであるTuringAdviceを提案する。
現実の人が現在直面している記述された状況を考えると、モデルは自然言語で有益なアドバイスを生成する必要がある。
実証的な結果は、今日のモデルがTuringAdviceで苦労していることを示している。
論文 参考訳(メタデータ) (2020-04-07T18:00:03Z) - Generating Major Types of Chinese Classical Poetry in a Uniformed
Framework [88.57587722069239]
GPT-2に基づく漢詩の主要なタイプを生成するフレームワークを提案する。
予備的な結果は、この強化されたモデルが、形も内容も質の高い大型漢詩を生成できることを示している。
論文 参考訳(メタデータ) (2020-03-13T14:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。