論文の概要: Synthetic Text Detection: Systemic Literature Review
- arxiv url: http://arxiv.org/abs/2210.06336v1
- Date: Sat, 1 Oct 2022 04:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 16:20:24.250261
- Title: Synthetic Text Detection: Systemic Literature Review
- Title(参考訳): 合成テキスト検出:システム文献レビュー
- Authors: Jesus Guerrero and Izzat Alsmadi
- Abstract要約: 合成テキスト検出は研究のトピックとしてますます有効になっている。
このレビューは、現在の文献のスナップショットを作成し、将来の著者の参入障壁を緩和するために書かれています。
- 参考スコア(独自算出の注目度): 0.45687771576879593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Within the text analysis and processing fields, generated text attacks have
been made easier to create than ever before. To combat these attacks open
sourcing models and datasets have become a major trend to create automated
detection algorithms in defense of authenticity. For this purpose, synthetic
text detection has become an increasingly viable topic of research. This review
is written for the purpose of creating a snapshot of the state of current
literature and easing the barrier to entry for future authors. Towards that
goal, we identified few research trends and challenges in this field.
- Abstract(参考訳): テキスト解析と処理の分野では、生成されたテキスト攻撃がこれまで以上に簡単に作成できるようになった。
これらの攻撃に対抗するために、オープンソースのモデルとデータセットは、認証を守るために自動検出アルゴリズムを作成する主要なトレンドとなっている。
この目的のために、合成テキスト検出は次第に研究の対象となっている。
このレビューは、現在の文学の状況のスナップショットを作成し、将来の著者への参入障壁を緩和するために書かれている。
その目標に向かって、この分野の研究動向と課題がほとんどなかった。
関連論文リスト
- Hidding the Ghostwriters: An Adversarial Evaluation of AI-Generated
Student Essay Detection [29.433764586753956]
大規模言語モデル(LLM)は、テキスト生成タスクにおいて顕著な機能を示した。
これらのモデルの利用には、盗作行為、偽ニュースの普及、教育演習における問題など、固有のリスクが伴う。
本稿では,AI生成した学生エッセイデータセットであるAIG-ASAPを構築し,このギャップを埋めることを目的とする。
論文 参考訳(メタデータ) (2024-02-01T08:11:56Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Towards Possibilities & Impossibilities of AI-generated Text Detection:
A Survey [97.33926242130732]
大規模言語モデル(LLM)は、自然言語処理(NLP)の領域に革命をもたらし、人間のようなテキスト応答を生成する能力を持つ。
これらの進歩にもかかわらず、既存の文献のいくつかは、LLMの潜在的な誤用について深刻な懸念を提起している。
これらの懸念に対処するために、研究コミュニティのコンセンサスは、AI生成テキストを検出するアルゴリズムソリューションを開発することである。
論文 参考訳(メタデータ) (2023-10-23T18:11:32Z) - Watermarking Conditional Text Generation for AI Detection: Unveiling
Challenges and a Semantic-Aware Watermark Remedy [52.765898203824975]
本研究では,条件付きテキスト生成と入力コンテキストの特性を考慮した意味認識型透かしアルゴリズムを提案する。
実験結果から,提案手法は様々なテキスト生成モデルに対して大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-25T20:24:22Z) - Deepfake Text Detection in the Wild [51.07597090941853]
近年の大規模言語モデルの発展により、人間のものと同等のレベルのテキスト生成が可能になった。
これらのモデルは、ニュース記事の執筆、ストーリー生成、科学的な執筆など、幅広いコンテンツにまたがる強力な能力を示している。
このような機能は、人間によるテキストと機械によるテキストのギャップをさらに狭め、ディープフェイクテキスト検出の重要性を強調している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Paraphrase Identification with Deep Learning: A Review of Datasets and
Methods [0.0]
GPT-3やChatGPTのようなテキスト生成ツールは、様々な形式のメディアの信頼性に深刻な脅威をもたらす可能性がある。
このタイプの盗作行為を検出することは、これらの方法が訓練されているデータセットの異なる性質のため、依然として困難である。
論文 参考訳(メタデータ) (2022-12-13T23:06:20Z) - The Sensitivity of Word Embeddings-based Author Detection Models to
Semantic-preserving Adversarial Perturbations [3.7552532139404797]
著者分析は自然言語処理の分野において重要な課題である。
本稿では,入力の逆操作に対する既成アプローチの限界と感度について考察する。
論文 参考訳(メタデータ) (2021-02-23T19:55:45Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。