論文の概要: Uncertainty in Authorship: Why Perfect AI Detection Is Mathematically Impossible
- arxiv url: http://arxiv.org/abs/2509.11915v1
- Date: Mon, 15 Sep 2025 13:33:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.310406
- Title: Uncertainty in Authorship: Why Perfect AI Detection Is Mathematically Impossible
- Title(参考訳): 著者の不確実性:AIの完全検出が数学的に不可能な理由
- Authors: Aadil Gani Ganie,
- Abstract要約: テキストが人間によって書かれたのか、AIによって書かれたのかを確実に特定しようとすると、テキストの自然な流れと本物性を損なうリスクが高まる。
我々の分析は、AIが生成したテキストが人間の文章を忠実に模倣すると、完璧な検出は技術的に難しいだけでなく理論的に不可能になることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) become more advanced, it is increasingly difficult to distinguish between human-written and AI-generated text. This paper draws a conceptual parallel between quantum uncertainty and the limits of authorship detection in natural language. We argue that there is a fundamental trade-off: the more confidently one tries to identify whether a text was written by a human or an AI, the more one risks disrupting the text's natural flow and authenticity. This mirrors the tension between precision and disturbance found in quantum systems. We explore how current detection methods--such as stylometry, watermarking, and neural classifiers--face inherent limitations. Enhancing detection accuracy often leads to changes in the AI's output, making other features less reliable. In effect, the very act of trying to detect AI authorship introduces uncertainty elsewhere in the text. Our analysis shows that when AI-generated text closely mimics human writing, perfect detection becomes not just technologically difficult but theoretically impossible. We address counterarguments and discuss the broader implications for authorship, ethics, and policy. Ultimately, we suggest that the challenge of AI-text detection is not just a matter of better tools--it reflects a deeper, unavoidable tension in the nature of language itself.
- Abstract(参考訳): 大規模言語モデル(LLMs)が進歩するにつれて、人書きテキストとAI生成テキストの区別がますます困難になっている。
本稿では、量子不確かさと自然言語におけるオーサシップ検出の限界との間には、概念的な類似性がある。
テキストが人間によって書かれたのか、AIによって書かれたのかを確実に特定しようとすると、テキストの自然な流れと信頼性を損なうリスクが高まる。
これは量子系で見られる精度と乱れの間の緊張を反映している。
我々は、現在の検出方法(スタイメトリー、透かし、ニューラル分類器など)が、固有の制限に直面しているかどうかを考察する。
検出精度の向上はAIの出力の変更につながることが多く、他の機能は信頼性が低下する。
実際、AIの著者を検知しようとする行為は、テキストのどこかに不確実性をもたらす。
我々の分析は、AIが生成したテキストが人間の文章を忠実に模倣すると、完璧な検出は技術的に難しいだけでなく理論的に不可能になることを示している。
我々は、逆論に対処し、著者、倫理、政策に対するより広範な影響について論じる。
究極的には、AIテキスト検出の課題は、よりよいツールの問題ではなく、言語自体の本質において、より深く、避けられない緊張を反映している、と提案する。
関連論文リスト
- AuthorMist: Evading AI Text Detectors with Reinforcement Learning [4.806579822134391]
AuthorMistは、AI生成したテキストを人間ライクな文章に変換する、新しい強化学習ベースのシステムだ。
AuthorMistは,本来の意味を保ちながら,AI生成テキストの検出性を効果的に低減することを示す。
論文 参考訳(メタデータ) (2025-03-10T12:41:05Z) - Almost AI, Almost Human: The Challenge of Detecting AI-Polished Writing [55.2480439325792]
本研究では、AI-Polished-Text Evaluationデータセットを用いて、12の最先端AIテキスト検出器を体系的に評価する。
我々の発見によると、検出器は、最小限に洗練されたテキストをAI生成としてフラグ付けし、AIの関与度を区別し、古いモデルや小さなモデルに対するバイアスを示す。
論文 参考訳(メタデータ) (2025-02-21T18:45:37Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - Can AI-Generated Text be Reliably Detected? [50.95804851595018]
大規模言語モデル(LLM)は、様々なアプリケーションで非常によく機能します。
盗作、偽ニュースの発生、スパムなどの活動においてこれらのモデルが誤用される可能性があることは、彼らの責任ある使用に対する懸念を引き起こしている。
我々は、攻撃者の存在下で、これらのAIテキスト検出装置の堅牢性を強調テストする。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Is This Abstract Generated by AI? A Research for the Gap between
AI-generated Scientific Text and Human-written Scientific Text [13.438933219811188]
本稿では,AIが生み出す科学内容と人間による文章とのギャップについて検討する。
我々は、AI生成科学テキストと人文科学テキストの間に、文章スタイルのギャップがあることを発見した。
論文 参考訳(メタデータ) (2023-01-24T04:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。