論文の概要: Frankentext: Stitching random text fragments into long-form narratives
- arxiv url: http://arxiv.org/abs/2505.18128v1
- Date: Fri, 23 May 2025 17:38:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.253794
- Title: Frankentext: Stitching random text fragments into long-form narratives
- Title(参考訳): Frankentext: ランダムテキストの断片を長文の物語に変換する
- Authors: Chau Minh Pham, Jenna Russell, Dzung Pham, Mohit Iyyer,
- Abstract要約: フランケンテクス(Frankentexts)は、LLMによって作られた新しいタイプの長文の物語である。
そこで我々は,Frankentextsを生成するために,人書きパスを選択して組み合わせてドラフトを作成するように指示し,ユーザ指定のコピー比を維持しながら,反復的にドラフトを修正した。
Gemini-2.5-Proはこのタスクで驚くほどうまく機能し、フランケンテキストの81%が一貫性があり、プロンプトに100%関係している。
- 参考スコア(独自算出の注目度): 28.514420249709726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Frankentexts, a new type of long-form narratives produced by LLMs under the extreme constraint that most tokens (e.g., 90%) must be copied verbatim from human writings. This task presents a challenging test of controllable generation, requiring models to satisfy a writing prompt, integrate disparate text fragments, and still produce a coherent narrative. To generate Frankentexts, we instruct the model to produce a draft by selecting and combining human-written passages, then iteratively revise the draft while maintaining a user-specified copy ratio. We evaluate the resulting Frankentexts along three axes: writing quality, instruction adherence, and detectability. Gemini-2.5-Pro performs surprisingly well on this task: 81% of its Frankentexts are coherent and 100% relevant to the prompt. Notably, up to 59% of these outputs are misclassified as human-written by detectors like Pangram, revealing limitations in AI text detectors. Human annotators can sometimes identify Frankentexts through their abrupt tone shifts and inconsistent grammar between segments, especially in longer generations. Beyond presenting a challenging generation task, Frankentexts invite discussion on building effective detectors for this new grey zone of authorship, provide training data for mixed authorship detection, and serve as a sandbox for studying human-AI co-writing processes.
- Abstract(参考訳): フランケンテクス(Frankentexts)は、LLMによって作られた新しいタイプの長文の物語であり、ほとんどのトークン(例:90%)は人間の文章から冗長にコピーしなければならないという極端な制約のもとに作られたものである。
このタスクは、制御可能な生成の挑戦的なテストを示し、モデルに書き込みのプロンプトを満足させ、異なるテキストフラグメントを統合し、なおも一貫性のある物語を生成する。
そこで我々は,Frankentextsを生成するために,人書きパスを選択して組み合わせてドラフトを作成するように指示し,ユーザ指定のコピー比を維持しながら,反復的にドラフトを修正した。
書字品質,命令順守,検出性という3つの軸に沿ってFrankentextを評価した。
Gemini-2.5-Proはこのタスクで驚くほどうまく機能し、フランケンテキストの81%が一貫性があり、プロンプトに100%関係している。
特に、これらの出力の最大59%は、Pangramのような検知器によって書かれた人間と誤分類され、AIテキスト検出器の制限が明らかにされている。
人間の注釈は、しばしばフランケンテクスをその突然のトーンシフトとセグメント間の不整合文法、特により長い世代で識別することができる。
挑戦的な生成タスクの他に、Frankentexts氏は、この新しい著者のグレーゾーンに効果的な検出器を構築することについての議論を招待し、混合著者の検出のためのトレーニングデータを提供し、人間とAIの共筆プロセスを研究するためのサンドボックスとして機能する。
関連論文リスト
- Robust and Fine-Grained Detection of AI Generated Texts [0.29569362468768806]
既存のシステムは、短いテキストよりもAI生成したコンテンツを正確に識別するのに苦労することが多い。
本稿では,トークン分類のタスクのために構築されたモデルについて紹介する。
また,23言語以上のプロプライエタリなLLMが主に共著する2.4M以上のテキストのデータセットも導入した。
論文 参考訳(メタデータ) (2025-04-16T10:29:30Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Spotting AI's Touch: Identifying LLM-Paraphrased Spans in Text [61.22649031769564]
我々は、新しいフレームワーク、パラフレーズテキストスパン検出(PTD)を提案する。
PTDは、テキスト内でパラフレーズ付きテキストを識別することを目的としている。
パラフレーズ付きテキストスパン検出のための専用データセットであるPASTEDを構築した。
論文 参考訳(メタデータ) (2024-05-21T11:22:27Z) - Beyond Black Box AI-Generated Plagiarism Detection: From Sentence to
Document Level [4.250876580245865]
既存のAI生成テキスト分類器は精度が限られており、しばしば偽陽性を生成する。
自然言語処理(NLP)技術を用いた新しい手法を提案する。
与えられた質問の複数のパラフレーズ付きバージョンを生成し、それを大きな言語モデルに入力し、回答を生成する。
本研究では,コサイン類似度に基づくコントラスト的損失関数を用いて,生成文と学生の反応とをマッチングする。
論文 参考訳(メタデータ) (2023-06-13T20:34:55Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - DPIC: Decoupling Prompt and Intrinsic Characteristics for LLM Generated Text Detection [56.513637720967566]
大規模言語モデル(LLM)は、盗作、eコマースプラットフォームへの偽レビューの設置、炎症性偽ツイートなどの誤用のリスクを引き起こすテキストを生成することができる。
既存の高品質な検出手法では、本質的な特徴を抽出するために、モデルの内部にアクセスする必要がある。
ブラックボックスモデル生成テキストの深い内在特性を抽出する。
論文 参考訳(メタデータ) (2023-05-21T17:26:16Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - Real or Fake Text?: Investigating Human Ability to Detect Boundaries
Between Human-Written and Machine-Generated Text [23.622347443796183]
我々は、テキストが人間の書き起こしから始まり、最先端のニューラルネットワークモデルによって生成されるようになる、より現実的な状況について研究する。
この課題でアノテータはしばしば苦労するが、アノテータのスキルにはかなりのばらつきがあり、適切なインセンティブが与えられると、アノテータは時間とともに改善できることを示す。
論文 参考訳(メタデータ) (2022-12-24T06:40:25Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - Uniform Complexity for Text Generation [4.867923281108005]
テキスト生成のための統一複雑度(UCTG)は,生成モデルに一様言語特性をプロンプトに関して観察させるという課題を提起する新しいベンチマークテストである。
GPT-2のようなモデルは、プロフェッショナルなテキストで微調整しても、代々使われる入力プロンプトの複雑さを維持するのに苦労している。
論文 参考訳(メタデータ) (2022-04-11T15:19:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。