論文の概要: On the Possibilities of AI-Generated Text Detection
- arxiv url: http://arxiv.org/abs/2304.04736v2
- Date: Thu, 1 Jun 2023 19:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 19:41:02.232181
- Title: On the Possibilities of AI-Generated Text Detection
- Title(参考訳): AIによるテキスト検出の可能性について
- Authors: Souradip Chakraborty, Amrit Singh Bedi, Sicheng Zhu, Bang An, Dinesh
Manocha, and Furong Huang
- Abstract要約: 人間と機械が生成したテキストの分布が全く同じでない限り、AIが生成したテキストをほぼ常に検出できるという証拠を提供する。
我々は、AIが生成するテキスト検出の正確なサンプル境界の複雑さを導出し、それを検出するのにどれだけのサンプルが必要であるかを示す。
- 参考スコア(独自算出の注目度): 57.303683219334275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our work focuses on the challenge of detecting outputs generated by Large
Language Models (LLMs) to distinguish them from those generated by humans. This
ability is of the utmost importance in numerous applications. However, the
possibility of such discernment has been the subject of debate within the
community. Therefore, a central question is whether we can detect AI-generated
text and, if so, when. In this work, we provide evidence that it should almost
always be possible to detect AI-generated text unless the distributions of
human and machine-generated texts are exactly the same over the entire support.
This observation follows from the standard results in information theory and
relies on the fact that if the machine text becomes more human-like, we need
more samples to detect it. We derive a precise sample complexity bound of
AI-generated text detection, which tells how many samples are needed to detect
AI-generated text. This gives rise to additional challenges of designing more
complicated detectors that take in $n$ samples for detection (rather than just
one), which is the scope of future research on this topic. Our empirical
evaluations on various real and synthetic datasets support our claim about the
existence of better detectors, demonstrating that AI-generated text detection
should be achievable in the majority of scenarios. Our theory and results align
with OpenAI's empirical findings, (in relation to sequence length), and we are
the first to provide a solid theoretical justification for these outcomes.
- Abstract(参考訳): 本研究では,大規模言語モデル(llm)が生成する出力を,人間が生成した出力と区別するために検出する課題に着目した。
この能力は多くの応用において最も重要である。
しかし、そのような認識の可能性はコミュニティ内で議論の対象となっている。
したがって、中心となる疑問は、aiが生成したテキストを検出できるかどうかと、それがいつなのかである。
本研究では,人間と機械生成テキストの分布がサポート全体において全く同じでない限り,AI生成テキストをほぼ常に検出できることの証拠を提供する。
この観察は、情報理論における標準的な結果に続き、機械テキストがより人間らしくなった場合、それを検出するためにより多くのサンプルが必要であるという事実に依存している。
ai生成テキストの検出に必要なサンプル数を示す、ai生成テキスト検出の正確なサンプル複雑性を導出する。
これにより、より複雑な検出器を設計し、(たった1つではなく)検出に$n$のサンプルを取り入れることが、このトピックに関する将来の研究のスコープとなる。
さまざまな実・合成データセットに関する実証的な評価は、より良い検出器の存在に関する我々の主張を支持し、AI生成したテキスト検出がほとんどのシナリオで達成可能であることを実証する。
我々の理論と結果は、OpenAIの経験的発見(シーケンス長に関して)と一致し、これらの結果に対して確固たる理論的正当化を初めて提供する。
関連論文リスト
- Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Detecting Machine-Generated Texts: Not Just "AI vs Humans" and Explainability is Complicated [8.77447722226144]
そこで本研究では,新たな3次テキスト分類手法を導入し,いずれの情報源にも起因する可能性のあるテキストの「未決定」カテゴリを追加する。
この研究は、単に分類から機械が生成したテキストの説明へとパラダイムをシフトさせ、ユーザーに対して明確で理解可能な説明を提供するための検出器の必要性を強調した。
論文 参考訳(メタデータ) (2024-06-26T11:11:47Z) - Spotting AI's Touch: Identifying LLM-Paraphrased Spans in Text [61.22649031769564]
我々は、新しいフレームワーク、パラフレーズテキストスパン検出(PTD)を提案する。
PTDは、テキスト内でパラフレーズ付きテキストを識別することを目的としている。
パラフレーズ付きテキストスパン検出のための専用データセットであるPASTEDを構築した。
論文 参考訳(メタデータ) (2024-05-21T11:22:27Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - AI-generated text boundary detection with RoFT [7.2286849324485445]
テキストの書き起こし部分と機械生成部分の境界を検出する方法について検討する。
特に,境界検出に対するパープレキシティに基づくアプローチは,RoBERTaモデルの教師付き微調整よりも,ドメイン固有データの特異性に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-11-14T17:48:19Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - DetectGPT-SC: Improving Detection of Text Generated by Large Language
Models through Self-Consistency with Masked Predictions [13.077729125193434]
既存の検出器は、人間が生成したテキストとAI生成したテキストの間に分配ギャップがあるという仮定に基づいて構築されている。
また,ChatGPTのような大規模言語モデルは,テキスト生成や継続において強い自己整合性を示すことがわかった。
マスク付き予測を用いた自己整合性に基づくAI生成テキストの検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:23:10Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。