論文の概要: An Information-Theoretic Approach for Detecting Edits in AI-Generated Text
- arxiv url: http://arxiv.org/abs/2308.12747v2
- Date: Sat, 24 Aug 2024 00:15:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-28 01:07:17.585768
- Title: An Information-Theoretic Approach for Detecting Edits in AI-Generated Text
- Title(参考訳): AI生成テキストにおける編集検出のための情報理論アプローチ
- Authors: Idan Kashtan, Alon Kipnis,
- Abstract要約: 本稿では,ある記事が生成言語モデルで完全に書かれたのか,あるいは異なる著者による編集を含むのか,あるいは人間なのかを判断する手法を提案する。
本手法の有効性を実データを用いた広範囲な評価により示す。
我々の分析は、情報理論とデータ科学の共通点における興味深い研究課題をいくつか提起する。
- 参考スコア(独自算出の注目度): 7.013432243663526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method to determine whether a given article was written entirely by a generative language model or perhaps contains edits by a different author, possibly a human. Our process involves multiple tests for the origin of individual sentences or other pieces of text and combining these tests using a method that is sensitive to rare alternatives, i.e., non-null effects are few and scattered across the text in unknown locations. Interestingly, this method also identifies pieces of text suspected to contain edits. We demonstrate the effectiveness of the method in detecting edits through extensive evaluations using real data and provide an information-theoretic analysis of the factors affecting its success. In particular, we discuss optimality properties under a theoretical framework for text editing saying that sentences are generated mainly by the language model, except perhaps for a few sentences that might have originated via a different mechanism. Our analysis raises several interesting research questions at the intersection of information theory and data science.
- Abstract(参考訳): 本稿では,ある記事が生成言語モデルで完全に書かれたのか,あるいは異なる著者による編集を含むのか,あるいは人間なのかを判断する手法を提案する。
我々のプロセスは、個々の文章や他のテキストの起点に関する複数のテストと、まれな代替品に敏感な手法を用いてこれらのテストを組み合わせることを含みます。
興味深いことに、この方法は編集を含むと思われるテキストの断片も識別する。
本手法の有効性を実データを用いた広範囲な評価により示すとともに,その成功に影響を及ぼす要因の情報理論解析を行う。
特に、テキスト編集の理論的枠組みの下で、文は言語モデルによって主に生成されるという最適性について論じる。
我々の分析は、情報理論とデータ科学の共通点における興味深い研究課題をいくつか提起する。
関連論文リスト
- ExaGPT: Example-Based Machine-Generated Text Detection for Human Interpretability [62.285407189502216]
LLM(Large Language Models)によって生成されたテキストの検出は、誤った判断によって致命的な誤りを引き起こす可能性がある。
本稿では,人間の意思決定プロセスに根ざした解釈可能な検出手法であるExaGPTを紹介する。
以上の結果から,ExaGPTは従来の強力な検出器よりも最大で40.9ポイントの精度を1%の偽陽性率で大きく上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-17T01:15:07Z) - Detecting the Undetectable: Assessing the Efficacy of Current Spoof Detection Methods Against Seamless Speech Edits [82.8859060022651]
音声入力編集(SINE)データセットをVoiceboxで作成する。
本手法を用いて編集した音声は従来のカット・アンド・ペースト法よりも検出が困難であることを確認した。
人的困難にもかかわらず, 自己監督型検出器は検出, 局所化, 一般化において顕著な性能を発揮することを示す実験結果が得られた。
論文 参考訳(メタデータ) (2025-01-07T14:17:47Z) - Discovering influential text using convolutional neural networks [0.0]
本稿では,畳み込みニューラルネットワークを用いたテキストに対する人間の反応を予測可能な類似文句のクラスタを発見する手法を提案する。
提案手法を2つのデータセットに適用し,まず,結果の原因となるフレーズをモデルが検出する能力の直接検証を可能にする。
どちらの場合も、モデルはベンチマーク手法よりも多種多様なテキスト処理を学習し、これらのテキスト機能は、ベンチマーク手法が結果を予測する能力を定量的に満たしたり、超えたりすることができる。
論文 参考訳(メタデータ) (2024-06-14T14:41:44Z) - Who Writes the Review, Human or AI? [0.36498648388765503]
本研究では,AIによる書評と人間による書評を正確に区別する手法を提案する。
提案手法は移動学習を利用して,異なるトピック間で生成したテキストを識別する。
実験の結果、元のテキストのソースを検出でき、精度96.86%に達することが示されている。
論文 参考訳(メタデータ) (2024-05-30T17:38:44Z) - Spotting AI's Touch: Identifying LLM-Paraphrased Spans in Text [61.22649031769564]
我々は、新しいフレームワーク、パラフレーズテキストスパン検出(PTD)を提案する。
PTDは、テキスト内でパラフレーズ付きテキストを識別することを目的としている。
パラフレーズ付きテキストスパン検出のための専用データセットであるPASTEDを構築した。
論文 参考訳(メタデータ) (2024-05-21T11:22:27Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - A Deep Learning Anomaly Detection Method in Textual Data [0.45687771576879593]
本稿では,従来の機械学習アルゴリズムと組み合わせたディープラーニングとトランスフォーマーアーキテクチャを提案する。
我々は、異常を予測するために、文変換器、オート、ロジスティック回帰、距離計算など、複数の機械学習手法を使用した。
論文 参考訳(メタデータ) (2022-11-25T05:18:13Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - The Sensitivity of Word Embeddings-based Author Detection Models to
Semantic-preserving Adversarial Perturbations [3.7552532139404797]
著者分析は自然言語処理の分野において重要な課題である。
本稿では,入力の逆操作に対する既成アプローチの限界と感度について考察する。
論文 参考訳(メタデータ) (2021-02-23T19:55:45Z) - Method of the coherence evaluation of Ukrainian text [0.0]
ウクライナ語のテキストコヒーレンス測定法について分析した。
訓練と試験はウクライナのテキストのコーパスで行われている。
テキストコヒーレンス評価のための2つの典型的なタスクを実行することで、テスト手順を実行する。
論文 参考訳(メタデータ) (2020-10-31T16:48:55Z) - A computational model implementing subjectivity with the 'Room Theory'.
The case of detecting Emotion from Text [68.8204255655161]
本研究は,テキスト分析における主観性と一般的文脈依存性を考慮した新しい手法を提案する。
単語間の類似度を用いて、ベンチマーク中の要素の相対的関連性を抽出することができる。
この方法は、主観的評価がテキストの相対値や意味を理解するために関係しているすべてのケースに適用できる。
論文 参考訳(メタデータ) (2020-05-12T21:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。