論文の概要: On the Possibilities of AI-Generated Text Detection
- arxiv url: http://arxiv.org/abs/2304.04736v1
- Date: Mon, 10 Apr 2023 17:47:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:02:37.375817
- Title: On the Possibilities of AI-Generated Text Detection
- Title(参考訳): AIによるテキスト検出の可能性について
- Authors: Souradip Chakraborty, Amrit Singh Bedi, Sicheng Zhu, Bang An, Dinesh
Manocha, and Furong Huang
- Abstract要約: 人間と機械が生成したテキストの分布が全く同じでない限り、AIが生成したテキストをほぼ常に検出できるという証拠を提供する。
我々は、AI生成したテキスト検出の精度の高いサンプル複雑さを導出し、検出に必要なサンプル数を示す。
- 参考スコア(独自算出の注目度): 57.303683219334275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our work focuses on the challenge of detecting outputs generated by Large
Language Models (LLMs) from those generated by humans. The ability to
distinguish between the two is of utmost importance in numerous applications.
However, the possibility and impossibility of such discernment have been
subjects of debate within the community. Therefore, a central question is
whether we can detect AI-generated text and, if so, when. In this work, we
provide evidence that it should almost always be possible to detect the
AI-generated text unless the distributions of human and machine generated texts
are exactly the same over the entire support. This observation follows from the
standard results in information theory and relies on the fact that if the
machine text is becoming more like a human, we need more samples to detect it.
We derive a precise sample complexity bound of AI-generated text detection,
which tells how many samples are needed to detect. This gives rise to
additional challenges of designing more complicated detectors that take in n
samples to detect than just one, which is the scope of future research on this
topic. Our empirical evaluations support our claim about the existence of
better detectors demonstrating that AI-Generated text detection should be
achievable in the majority of scenarios. Our results emphasize the importance
of continued research in this area
- Abstract(参考訳): 本研究では,大規模言語モデル(llm)が生成する出力を,人間が生成した出力から検出する課題に着目した。
両者を区別する能力は、多くの応用において極めて重要である。
しかし、そのような認識の可能性と不可能性は、コミュニティ内で議論の対象となっている。
したがって、中心となる疑問は、aiが生成したテキストを検出できるかどうかと、それがいつなのかである。
本研究では,人間と機械が生成したテキストの分布がサポート全体において全く同じでない限り,AI生成したテキストをほぼ常に検出できることの証拠を提供する。
この観察は、情報理論の標準結果に従い、機械テキストが人間のようになってきている場合、それを検出するためにより多くのサンプルが必要であるという事実に依存している。
aiが生成するテキスト検出の正確なサンプル複雑性を導出し、検出に必要なサンプル数を示す。
これにより、n個のサンプルから検出する複雑な検出器を設計することが、このトピックに関する今後の研究のスコープとなる1つ以上の課題となる。
我々の経験的評価は、AIによって生成されたテキスト検出がほとんどのシナリオで達成可能であることを示すより良い検出器の存在に関する我々の主張を支持します。
この領域における継続研究の重要性を強調した。
関連論文リスト
- Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Machine-Generated Text Detection using Deep Learning [0.0]
本研究は,大規模言語モデルが生成するテキストを人為的テキストから識別することの課題に焦点を当てる。
我々はTwitter Sentiment, Football Commentary, Project Gutenberg, PubMedQA, SQuADなど,複数のデータセットでモデルを評価した。
論文 参考訳(メタデータ) (2023-11-26T21:16:01Z) - AI-generated text boundary detection with RoFT [7.2286849324485445]
テキストの書き起こし部分と機械生成部分の境界を検出する方法について検討する。
特に,境界検出に対するパープレキシティに基づくアプローチは,RoBERTaモデルの教師付き微調整よりも,ドメイン固有データの特異性に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-11-14T17:48:19Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - DetectGPT-SC: Improving Detection of Text Generated by Large Language
Models through Self-Consistency with Masked Predictions [13.077729125193434]
既存の検出器は、人間が生成したテキストとAI生成したテキストの間に分配ギャップがあるという仮定に基づいて構築されている。
また,ChatGPTのような大規模言語モデルは,テキスト生成や継続において強い自己整合性を示すことがわかった。
マスク付き予測を用いた自己整合性に基づくAI生成テキストの検出手法を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:23:10Z) - Detecting ChatGPT: A Survey of the State of Detecting ChatGPT-Generated
Text [1.9643748953805937]
生成言語モデルは、人間が生成したように見える人工的なテキストを生成することによって、潜在的に騙される可能性がある。
この調査は、人間が生成したテキストとChatGPTを区別するために使われている現在のアプローチの概要を提供する。
論文 参考訳(メタデータ) (2023-09-14T13:05:20Z) - FacTool: Factuality Detection in Generative AI -- A Tool Augmented
Framework for Multi-Task and Multi-Domain Scenarios [87.12753459582116]
より広い範囲のタスクは、生成モデルによって処理されると、事実エラーを含むリスクが増大する。
大規模言語モデルにより生成されたテキストの事実誤りを検出するためのタスクおよびドメインに依存しないフレームワークであるFacToolを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:51Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。