論文の概要: Long Text Generation Challenge
- arxiv url: http://arxiv.org/abs/2306.02334v1
- Date: Sun, 4 Jun 2023 11:52:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 18:27:11.069140
- Title: Long Text Generation Challenge
- Title(参考訳): 長文生成への挑戦
- Authors: Nikolay Mikhaylovskiy
- Abstract要約: 約1000トークンのプロンプトを前提として,人間のような長文生成の共有タスクであるLTG Challengeを提案する。
本稿では,GloVe Autocorrelations Power/Exponential Law Mean Absolute Percentage Error Ratio (GAPELMAPER) と人間評価プロトコルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a shared task of human-like long text generation, LTG Challenge,
that asks models to output a consistent human-like long text (a Harry Potter
generic audience fanfic in English), given a prompt of about 1000 tokens. We
suggest a novel statistical metric of the text structuredness, GloVe
Autocorrelations Power/ Exponential Law Mean Absolute Percentage Error Ratio
(GAPELMAPER) and a human evaluation protocol. We hope that LTG can open new
avenues for researchers to investigate sampling approaches, prompting
strategies, autoregressive and non-autoregressive text generation architectures
and break the barrier to generate consistent long (40K+ token) texts.
- Abstract(参考訳): 我々は,モデルに対して,約1000個のトークンを入力して,一貫した人間ライクな長文(ハリー・ポッター・ジェネラル・オーディエンス)の出力を求める,人間ライクな長文生成の共有タスクであるltg challengeを提案する。
本稿では,テキスト構造性に関する新しい統計指標,手袋自己相関パワー/指数法則,絶対パーセンテージ誤差比(gapelmaper)およびヒューマン評価プロトコルを提案する。
LTGが、サンプリングアプローチの調査、戦略の推進、自己回帰的かつ非自己回帰的テキスト生成アーキテクチャ、一貫性のある長文(40K+トークン)を生成するための障壁を突破する新たな道を開くことを願っている。
関連論文リスト
- Unlocking Anticipatory Text Generation: A Constrained Approach for Large
Language Models Decoding [78.83310409060836]
大規模言語モデル(LLM)は、テキスト生成の強力な能力を示している。
毒性や幻覚などの望ましくない行動が現れることがある。
将来制約付き生成問題としてテキスト生成の形式化を提案する。
論文 参考訳(メタデータ) (2023-12-11T06:35:33Z) - CoheSentia: A Novel Benchmark of Incremental versus Holistic Assessment
of Coherence in Generated Texts [15.866519123942457]
自動生成テキストの人間知覚コヒーレンスに関する新しいベンチマークである sc CoheSentia を紹介する。
我々のベンチマークには、自動生成および人称注釈付き500の段落が含まれており、それぞれが両方の方法で注釈付けされている。
解析の結果,インクリメンタルモードにおけるアノテータ間の合意は,総合的な代替よりも高いことがわかった。
論文 参考訳(メタデータ) (2023-10-25T03:21:20Z) - Copy Is All You Need [66.00852205068327]
既存のテキストコレクションからテキストセグメントを段階的にコピーするテキスト生成を定式化する。
提案手法は, 自動評価と人的評価の両方により, より優れた生成品質を実現する。
当社のアプローチでは,より大規模なテキストコレクションにスケールアップすることで,さらなるパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-07-13T05:03:26Z) - Deliberate then Generate: Enhanced Prompting Framework for Text
Generation [70.10319005141888]
Deliberate then Generate (DTG) プロンプトフレームワークはエラー検出命令とエラーを含む可能性のある候補で構成されている。
我々は、要約、翻訳、対話など、7つのテキスト生成タスクにまたがる20以上のデータセットに関する広範な実験を行う。
本稿では,DTGが既存のプロンプト手法を一貫して上回り,複数のテキスト生成タスクにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-05-31T13:23:04Z) - DNA-GPT: Divergent N-Gram Analysis for Training-Free Detection of
GPT-Generated Text [82.5469544192645]
ダイバージェントN-Gram解析(DNA-GPT)と呼ばれる新しいトレーニング不要検出手法を提案する。
元の部分と新しい部分の違いをN-gram解析により解析することにより,機械生成テキストと人文テキストの分布に顕著な相違が明らかになった。
その結果, ゼロショットアプローチは, 人文とGPT生成テキストの区別において, 最先端の性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-05-27T03:58:29Z) - Tractable Control for Autoregressive Language Generation [82.79160918147852]
本稿では,自動回帰テキスト生成モデルに語彙制約を課すために,トラクタブル確率モデル(TPM)を提案する。
本稿では,GeLaToが制約付きテキスト生成のための挑戦的ベンチマークにおいて,最先端のパフォーマンスを実現することを示す。
我々の研究は、大きな言語モデルを制御するための新しい道を開き、さらに表現力のあるTPMの開発を動機付けます。
論文 参考訳(メタデータ) (2023-04-15T00:19:44Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - Uniform Complexity for Text Generation [4.867923281108005]
テキスト生成のための統一複雑度(UCTG)は,生成モデルに一様言語特性をプロンプトに関して観察させるという課題を提起する新しいベンチマークテストである。
GPT-2のようなモデルは、プロフェッショナルなテキストで微調整しても、代々使われる入力プロンプトの複雑さを維持するのに苦労している。
論文 参考訳(メタデータ) (2022-04-11T15:19:47Z) - Automatic Detection of Machine Generated Text: A Critical Survey [19.186417923475144]
テキスト生成モデル(TGM)は、人間の言語スタイルに適したテキストを生成する。
TGMは、偽ニュースや偽商品レビューを自動的に生成することで、敵によって誤用される可能性がある。
TGMが生成したテキストと人間のテキストとを区別できる検出器は、そのような誤用を緩和する上で重要な役割を果たす。
論文 参考訳(メタデータ) (2020-11-02T20:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。