論文の概要: Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods
- arxiv url: http://arxiv.org/abs/2406.15583v1
- Date: Fri, 21 Jun 2024 18:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-25 21:34:03.385478
- Title: Detecting AI-Generated Text: Factors Influencing Detectability with Current Methods
- Title(参考訳): AI生成テキストの検出:現在の方法による検出可能性に影響を与える要因
- Authors: Kathleen C. Fraser, Hillary Dawkins, Svetlana Kiritchenko,
- Abstract要約: テキストが人工知能(AI)によって作成されたかどうかを知ることは、その信頼性を決定する上で重要である。
AIGT検出に対する最先端のアプローチには、透かし、統計学的およびスタイリスティック分析、機械学習分類などがある。
AIGTテキストがどのようなシナリオで「検出可能」であるかを判断するために、結合する健全な要因についての洞察を提供することを目指している。
- 参考スコア(独自算出の注目度): 13.14749943120523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have advanced to a point that even humans have difficulty discerning whether a text was generated by another human, or by a computer. However, knowing whether a text was produced by human or artificial intelligence (AI) is important to determining its trustworthiness, and has applications in many domains including detecting fraud and academic dishonesty, as well as combating the spread of misinformation and political propaganda. The task of AI-generated text (AIGT) detection is therefore both very challenging, and highly critical. In this survey, we summarize state-of-the art approaches to AIGT detection, including watermarking, statistical and stylistic analysis, and machine learning classification. We also provide information about existing datasets for this task. Synthesizing the research findings, we aim to provide insight into the salient factors that combine to determine how "detectable" AIGT text is under different scenarios, and to make practical recommendations for future work towards this significant technical and societal challenge.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間でさえ、あるテキストが別の人間によって、あるいはコンピュータによって生成されたかどうかを識別することが困難である点まで進歩している。
しかし、人間や人工知能(AI)がテキストを作成したかどうかを知ることは、その信頼性を判断する上で重要であり、不正や学業上の不正を検知したり、誤報や政治宣伝の拡散と戦うなど、多くの分野で応用されている。
AI生成テキスト(AIGT)検出の課題は、非常に困難であり、非常に重要なものである。
本調査では,透かし,統計的およびスタイリスティック分析,機械学習分類など,AIGT検出に対する最先端技術アプローチについて要約する。
このタスクのために既存のデータセットに関する情報も提供します。
研究成果を合成し,AIGTテキストの「検出可能な」状況と,この重要な技術的・社会的な課題に対する今後の研究の実践的推奨を組み合わせた健全な要因について考察することを目的とする。
関連論文リスト
- A Survey of AI-generated Text Forensic Systems: Detection, Attribution,
and Characterization [13.44566185792894]
AI生成テキスト鑑定は、LLMの誤用に対処する新たな分野である。
本稿では,検出,帰属,特性の3つの主要な柱に着目した詳細な分類法を紹介する。
我々は、AI生成テキスト法医学研究の利用可能なリソースを探究し、AI時代の法医学システムの進化的課題と今後の方向性について論じる。
論文 参考訳(メタデータ) (2024-03-02T09:39:13Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Who Said That? Benchmarking Social Media AI Detection [12.862865254507177]
本稿では、実ソーシャルメディアプラットフォームにおけるAIテキスト検出モデルの能力を評価するために開発された新しいベンチマークであるSAID(Social media AI Detection)を紹介する。
ZhihuやQuoraといった人気のソーシャルメディアプラットフォームから、AI生成テキストが組み込まれている。
Zhihuデータセットに基づく我々の研究の注目すべき発見は、アノテータがAI生成テキストと人間生成テキストを96.5%の平均精度で区別できることを示している。
論文 参考訳(メタデータ) (2023-10-12T11:35:24Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Testing of Detection Tools for AI-Generated Text [0.0]
本稿では,人工知能生成テキストの検出ツールの機能について検討する。
精度と誤差型分析に基づいて評価する。
この研究は12の公開ツールと2つの商用システムをカバーする。
論文 参考訳(メタデータ) (2023-06-21T16:29:44Z) - Detection of Fake Generated Scientific Abstracts [0.9525711971667679]
学術コミュニティは、現実と人工的に生成されたものとを区別することの難しさについて懸念を表明している。
本研究では,GPT-3モデルを用いて,人工知能による科学論文の要約を生成する。
本稿では,機械学習モデルと組み合わせたテキスト表現手法について検討する。
論文 参考訳(メタデータ) (2023-04-12T20:20:22Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。