論文の概要: Readers Prefer Outputs of AI Trained on Copyrighted Books over Expert Human Writers
- arxiv url: http://arxiv.org/abs/2510.13939v1
- Date: Wed, 15 Oct 2025 17:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.554029
- Title: Readers Prefer Outputs of AI Trained on Copyrighted Books over Expert Human Writers
- Title(参考訳): 専門家の作家よりも、著作権のある書籍で訓練されたAIの成果が優先される
- Authors: Tuhin Chakrabarty, Jane C. Ginsburg, Paramveer Dhillon,
- Abstract要約: 個々の著者の完全な作品に関する微調整のChatGPTは、これらの発見を完全に逆転させた。
著者1人あたりの平均的な微調整と推論のコストは、典型的な作家の報酬と比較して、99.7%の劇的な削減である。
- 参考スコア(独自算出の注目度): 8.031052360107092
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of copyrighted books for training AI models has led to numerous lawsuits from authors concerned about AI's ability to generate derivative content.Yet it's unclear whether these models can generate high quality literary text while emulating authors' styles. To answer this we conducted a preregistered study comparing MFA-trained expert writers with three frontier AI models: ChatGPT, Claude & Gemini in writing up to 450 word excerpts emulating 50 award-winning authors' diverse styles. In blind pairwise evaluations by 159 representative expert & lay readers, AI-generated text from in-context prompting was strongly disfavored by experts for both stylistic fidelity (OR=0.16, p<10^8) & writing quality (OR=0.13, p<10^7) but showed mixed results with lay readers. However, fine-tuning ChatGPT on individual authors' complete works completely reversed these findings: experts now favored AI-generated text for stylistic fidelity (OR=8.16, p<10^13) & writing quality (OR=1.87, p=0.010), with lay readers showing similar shifts. These effects generalize across authors & styles. The fine-tuned outputs were rarely flagged as AI-generated (3% rate v. 97% for in-context prompting) by best AI detectors. Mediation analysis shows this reversal occurs because fine-tuning eliminates detectable AI stylistic quirks (e.g., cliche density) that penalize in-context outputs. While we do not account for additional costs of human effort required to transform raw AI output into cohesive, publishable prose, the median fine-tuning & inference cost of $81 per author represents a dramatic 99.7% reduction compared to typical professional writer compensation. Author-specific fine-tuning thus enables non-verbatim AI writing that readers prefer to expert human writing, providing empirical evidence directly relevant to copyright's fourth fair-use factor, the "effect upon the potential market or value" of the source works.
- Abstract(参考訳): AIモデルをトレーニングするための著作権付き書籍の使用は、AIが派生コンテンツを生成する能力について懸念する著者たちの多くの訴訟を引き起こしている。
これに対応するために、我々は、MFAの訓練を受けたエキスパートライターと、ChatGPT、Claude、Geminiの3つのフロンティアAIモデルを比較した。
159名の代表者および一般読者による盲目的評価では, 文体的忠実度(OR=0.16, p<10^8)と書字的品質(OR=0.13, p<10^7)の両面から, 文脈内からのAI生成テキストが強く嫌われたが, 字体と混同した結果が得られた。
しかし、個々の著者の完全な作品に関する微調整のChatGPTは、これらの発見を完全に逆転させた: 専門家は、スタイリスティックな忠実さ(OR=8.16, p<10^13)と書字品質(OR=1.87, p=0.010)のためのAI生成テキストを好んだ。
これらの効果は著者やスタイルにまたがって一般化される。
微調整された出力は、最高のAI検出器によってAI生成(インコンテキストプロンプトの3%率対97%)としてフラグ付けされることはめったにない。
メディエーション分析は、微細チューニングによって、コンテキスト内出力をペナルライズする検出可能なAIスタイリスティックなクイック(例えば、クリッシェ密度)が排除されるため、この逆転が起こることを示している。
生のAI出力を凝集性のある出版可能な散文に変換するのに必要な追加の人的コストは説明できないが、著者1人あたりの微調整と推論の中央値のコストは、典型的なプロの作家の報酬と比較して、劇的な99.7%の削減を示している。
著者固有の微調整により、読者が人間の著作を専門とする非言語的AI記述が可能となり、著作権の4番目のフェアユース要因である「潜在的な市場または価値への影響」に直接関係する実証的な証拠を提供する。
関連論文リスト
- Everyone prefers human writers, including AI [0.0]
我々は,Raymond Queneaus Exercises Style (1947) を用いて帰属バイアスを測定する実験を行った。
人間は+13.7ポイント(pp)バイアス(コーエンのh = 0.28, 95%CI: 0.21-0.34)を示し、AIモデルは+34.3ポイントバイアス(h = 0.70, 95%CI: 0.65-0.76)を示した。
論文 参考訳(メタデータ) (2025-10-09T21:33:30Z) - EditLens: Quantifying the Extent of AI Editing in Text [23.457378805409714]
AIで編集されたテキストは、人間が書いたテキストやAIで生成したテキストと区別可能であることを示す。
テキスト内に存在するAI編集量を予測する回帰モデルをトレーニングする。
AIによって編集されたテキストが検出できるだけでなく、AIによる人間の文章への変化の度合いも検出できることを示す。
論文 参考訳(メタデータ) (2025-10-03T16:27:48Z) - AuthorMist: Evading AI Text Detectors with Reinforcement Learning [4.806579822134391]
AuthorMistは、AI生成したテキストを人間ライクな文章に変換する、新しい強化学習ベースのシステムだ。
AuthorMistは,本来の意味を保ちながら,AI生成テキストの検出性を効果的に低減することを示す。
論文 参考訳(メタデータ) (2025-03-10T12:41:05Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Group-Adaptive Threshold Optimization for Robust AI-Generated Text Detection [58.419940585826744]
本稿では,確率的AIテキスト検出のためのグループ固有しきい値最適化アルゴリズムであるFairOPTを紹介する。
属性(例えば、テキストの長さと書き込みスタイル)に基づいてデータをサブグループに分割し、FairOPTを実装して、各グループに対する決定しきい値の学習を行い、不一致を低減しました。
我々のフレームワークは、後処理によるAI生成コンテンツ検出において、より堅牢な分類の道を開く。
論文 参考訳(メタデータ) (2025-02-06T21:58:48Z) - People who frequently use ChatGPT for writing tasks are accurate and robust detectors of AI-generated text [37.36534911201806]
私たちは、300のノンフィクションの英語記事を読むために注釈を雇い、それを人書きまたはAI生成とラベル付けします。
実験の結果,AI生成テキストの検出において,LLMを頻繁に使用するアノテータが優れていることがわかった。
注釈付きデータセットとコードを公開し、AI生成テキストの人的および自動検出に関する将来の研究を刺激します。
論文 参考訳(メタデータ) (2025-01-26T19:31:34Z) - "It was 80% me, 20% AI": Seeking Authenticity in Co-Writing with Large Language Models [97.22914355737676]
我々は、AIツールと共同で書き込む際に、著者が自分の真正な声を保存したいかどうか、どのように検討する。
本研究は,人間とAIの共創における真正性の概念を解明するものである。
読者の反応は、人間とAIの共著に対する関心が低かった。
論文 参考訳(メタデータ) (2024-11-20T04:42:32Z) - Human Bias in the Face of AI: Examining Human Judgment Against Text Labeled as AI Generated [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。