論文の概要: On the Detectability of LLM-Generated Text: What Exactly Is LLM-Generated Text?
- arxiv url: http://arxiv.org/abs/2510.20810v1
- Date: Thu, 23 Oct 2025 17:59:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.541993
- Title: On the Detectability of LLM-Generated Text: What Exactly Is LLM-Generated Text?
- Title(参考訳): LLM生成テキストの検出性について: LLM生成テキストとは何か?
- Authors: Mingmeng Geng, Thierry Poibeau,
- Abstract要約: ターゲットの一貫性や正確な定義、すなわち「LLM生成テキスト」は存在しない。
一般的に検出対象と見なされるものは、通常、LLMが生成可能なテキストのサブセットのみを表す。
既存のベンチマークと評価アプローチは、実世界の検出器応用における様々な条件に適切に対応していない。
- 参考スコア(独自算出の注目度): 8.484462568964682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the widespread use of large language models (LLMs), many researchers have turned their attention to detecting text generated by them. However, there is no consistent or precise definition of their target, namely "LLM-generated text". Differences in usage scenarios and the diversity of LLMs further increase the difficulty of detection. What is commonly regarded as the detecting target usually represents only a subset of the text that LLMs can potentially produce. Human edits to LLM outputs, together with the subtle influences that LLMs exert on their users, are blurring the line between LLM-generated and human-written text. Existing benchmarks and evaluation approaches do not adequately address the various conditions in real-world detector applications. Hence, the numerical results of detectors are often misunderstood, and their significance is diminishing. Therefore, detectors remain useful under specific conditions, but their results should be interpreted only as references rather than decisive indicators.
- Abstract(参考訳): 大規模言語モデル(LLM)が広く使われるようになると、多くの研究者がそれらによって生成されたテキストを検出することに注意を向けている。
しかしながら、ターゲットの一貫性や正確な定義、すなわち"LLM生成テキスト"は存在しない。
利用シナリオの違いやLDMの多様性により、検出の難しさはさらに増大する。
一般的に検出対象と見なされるものは、通常、LLMが生成可能なテキストのサブセットのみを表す。
LLM出力に対する人間の編集は、LLMがユーザに与える微妙な影響とともに、LLM生成テキストと人文テキストの境界線を曖昧にしている。
既存のベンチマークと評価アプローチは、実世界の検出器応用における様々な条件に適切に対応していない。
したがって、検出器の数値結果はしばしば誤解され、その重要性は低下している。
したがって、検出器は特定の条件下では有用であるが、それらの結果は決定的な指標ではなく参照としてのみ解釈されるべきである。
関連論文リスト
- Your Language Model Can Secretly Write Like Humans: Contrastive Paraphrase Attacks on LLM-Generated Text Detectors [77.82885394684202]
テキスト検出を効果的に欺く訓練不要な方法である textbfContrastive textbfParaphrase textbfAttack (CoPA) を提案する。
CoPAは、大規模言語モデルによって生成される人間のような分布とは対照的に、補助的な機械的な単語分布を構築している。
我々の理論的分析は、提案された攻撃の優越性を示唆している。
論文 参考訳(メタデータ) (2025-05-21T10:08:39Z) - "I know myself better, but not really greatly": How Well Can LLMs Detect and Explain LLM-Generated Texts? [10.454446545249096]
本稿では,2進(人間対LLM生成)と3進分類(未決定クラスを含む)の2つの設定において,現在のLLMの検出と説明能力について検討する。
異なる大きさの6つのオープンソースLCMを評価し、自己検出(LLM)が相互検出(他のLCMからの出力の同定)を一貫して上回っていることを発見した。
本研究は, 自己検出・自己説明における現在のLCMの限界を浮き彫りにして, 過度に適合し, 一般化性を高めるためのさらなる研究の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-18T11:00:28Z) - Who Wrote This? The Key to Zero-Shot LLM-Generated Text Detection Is GECScore [51.65730053591696]
我々は,人文テキストがLLM生成テキストよりも文法的誤りを多く含んでいるという観察に基づく,シンプルで効果的なブラックボックスゼロショット検出手法を提案する。
実験結果から,本手法はゼロショット法や教師あり手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-07T12:57:01Z) - How You Prompt Matters! Even Task-Oriented Constraints in Instructions Affect LLM-Generated Text Detection [39.254432080406346]
タスク指向の制約 -- 命令に自然に含まれ、検出回避とは無関係な制約 -- でさえ、既存の強力な検出器は検出性能に大きなばらつきを持つ。
実験の結果,命令を複数回生成したり,命令を言い換えたりすることで,命令によって生成されたテキストの標準偏差(SD)が有意に大きい(SDは14.4F1スコアまで)ことがわかった。
論文 参考訳(メタデータ) (2023-11-14T18:32:52Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。