論文の概要: Cat and Mouse -- Can Fake Text Generation Outpace Detector Systems?
- arxiv url: http://arxiv.org/abs/2506.21274v1
- Date: Thu, 26 Jun 2025 13:58:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-27 19:53:10.110306
- Title: Cat and Mouse -- Can Fake Text Generation Outpace Detector Systems?
- Title(参考訳): 猫とマウス - テキスト生成による出力検出システムの実現は可能か?
- Authors: Andrea McGlinchey, Peter J Barclay,
- Abstract要約: 大規模な言語モデルは、学術的な文章、製品レビュー、政治ニュースなどの領域で説得力のある「フェイクテキスト」を生み出すことができる。
人工テキストの検出には,多くの手法が研究されている。
より大規模なモデルであっても、偽テキストの確実な検出が引き続き可能であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models can produce convincing "fake text" in domains such as academic writing, product reviews, and political news. Many approaches have been investigated for the detection of artificially generated text. While this may seem to presage an endless "arms race", we note that newer LLMs use ever more parameters, training data, and energy, while relatively simple classifiers demonstrate a good level of detection accuracy with modest resources. To approach the question of whether the models' ability to beat the detectors may therefore reach a plateau, we examine the ability of statistical classifiers to identify "fake text" in the style of classical detective fiction. Over a 0.5 version increase, we found that Gemini showed an increased ability to generate deceptive text, while GPT did not. This suggests that reliable detection of fake text may remain feasible even for ever-larger models, though new model architectures may improve their deceptiveness
- Abstract(参考訳): 大規模な言語モデルは、学術的な文章、製品レビュー、政治ニュースなどの領域で説得力のある「フェイクテキスト」を生み出すことができる。
人工テキストの検出には,多くの手法が研究されている。
これは無限の「武器競争」を先取りしているように見えるが、より新しいLSMではパラメータ、トレーニングデータ、エネルギーがより多く使われるのに対し、比較的単純な分類器は、控えめなリソースで検出精度が良いことを示している。
モデルが検出器を打ち負かす能力が高原に達するかどうかを問うため,古典的探偵小説のスタイルにおいて,統計的分類器が「フェイクテキスト」を識別する能力について検討した。
0.5以上のバージョンでは,GPTでは検出されなかったが,ジェミニでは偽テキストを生成する能力が向上していた。
これは、新しいモデルアーキテクチャは偽テキストの偽造性を改善するかもしれないが、より大型のモデルであっても、信頼性の高い偽テキストの検出が引き続き可能であることを示唆している。
関連論文リスト
- MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Smaller Language Models are Better Black-box Machine-Generated Text
Detectors [56.36291277897995]
小型で部分的に訓練されたモデルは、より優れたユニバーサルテキスト検出器である。
検出器とジェネレータが同一データでトレーニングされたかどうかが検出成功にとって重要でないことが判明した。
例えば、OPT-125Mモデルは、ChatGPT世代を検出するのにAUCが0.81であり、GPTファミリーのより大きなモデルであるGPTJ-6BはAUCが0.45である。
論文 参考訳(メタデータ) (2023-05-17T00:09:08Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。