論文の概要: LLM-Detector: Improving AI-Generated Chinese Text Detection with
Open-Source LLM Instruction Tuning
- arxiv url: http://arxiv.org/abs/2402.01158v1
- Date: Fri, 2 Feb 2024 05:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:36:48.566894
- Title: LLM-Detector: Improving AI-Generated Chinese Text Detection with
Open-Source LLM Instruction Tuning
- Title(参考訳): LLM-detector: オープンソースのLLM命令チューニングによるAI生成中国語テキスト検出の改善
- Authors: Rongsheng Wang and Haoming Chen and Ruizhe Zhou and Han Ma and Yaofei
Duan and Yanlan Kang and Songhua Yang and Baoyu Fan and Tao Tan
- Abstract要約: 既存のAI生成テキスト検出モデルでは、ドメイン内のオーバーフィットが難しくなる。
LLM-Detectorは文書レベルと文レベルのテキスト検出のための新しい手法である。
- 参考スコア(独自算出の注目度): 4.328134379418151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ChatGPT and other general large language models (LLMs) have achieved
remarkable success, but they have also raised concerns about the misuse of
AI-generated texts. Existing AI-generated text detection models, such as based
on BERT and RoBERTa, are prone to in-domain over-fitting, leading to poor
out-of-domain (OOD) detection performance. In this paper, we first collected
Chinese text responses generated by human experts and 9 types of LLMs, for
which to multiple domains questions, and further created a dataset that mixed
human-written sentences and sentences polished by LLMs. We then proposed
LLM-Detector, a novel method for both document-level and sentence-level text
detection through Instruction Tuning of LLMs. Our method leverages the wealth
of knowledge LLMs acquire during pre-training, enabling them to detect the text
they generate. Instruction tuning aligns the model's responses with the user's
expected text detection tasks. Experimental results show that previous methods
struggle with sentence-level AI-generated text detection and OOD detection. In
contrast, our proposed method not only significantly outperforms baseline
methods in both sentence-level and document-level text detection but also
demonstrates strong generalization capabilities. Furthermore, since
LLM-Detector is trained based on open-source LLMs, it is easy to customize for
deployment.
- Abstract(参考訳): ChatGPTや他の一般的な大規模言語モデル(LLM)は目覚ましい成功を収めているが、AI生成テキストの誤用も懸念されている。
BERTやRoBERTaなど、既存のAI生成テキスト検出モデルでは、ドメイン内のオーバーフィットが難しくなり、ドメイン外検出(OOD)のパフォーマンスが低下する。
そこで本研究では,まず,人文専門家が生成した中国語のテキスト応答を,複数のドメインに質問する9種類のLLMを用いて収集し,さらに,LLMによる文章と文を混合したデータセットを作成した。
LLMのインストラクションチューニングによる文書レベルと文レベルのテキスト検出のための新しい手法であるLLM-Detectorを提案する。
本手法は,事前学習中に獲得した知識llmを活用し,生成したテキストを検出する。
インストラクションチューニングは、モデルの応答とユーザの期待するテキスト検出タスクを調整します。
実験の結果,従来手法は文レベルのAI生成テキスト検出とOOD検出に苦慮していた。
対照的に,提案手法は文レベルおよび文書レベルのテキスト検出において,ベースライン法を著しく上回るだけでなく,強力な一般化能力を示す。
さらに、LLM-DetectorはオープンソースのLLMに基づいてトレーニングされているため、デプロイメント用にカスタマイズが容易である。
関連論文リスト
- Robust Detection of LLM-Generated Text: A Comparative Analysis [0.276240219662896]
大規模言語モデルは生命の多くの側面に広く統合することができ、その出力は全てのネットワークリソースを迅速に満たすことができる。
生成したテキストの強力な検出器を開発することがますます重要になっている。
この検出器は、これらの技術の潜在的な誤用を防ぎ、ソーシャルメディアなどのエリアを負の効果から保護するために不可欠である。
論文 参考訳(メタデータ) (2024-11-09T18:27:15Z) - Understanding the Effects of Human-written Paraphrases in LLM-generated Text Detection [7.242609314791262]
Human & LLM Paraphrase Collection (HLPC)は、人間の文章とパラフレーズを組み込んだ第一種データセットである。
我々は,人書きパラフレーズ,GPTとOPTのLLM生成文書,DIPPERとBARTのLLM生成パラフレーズを組み込んだ分類実験を行った。
以上の結果から,人文パラフレーズの含浸がLLM検出性能に大きな影響を与え,TPR@1%FPRが促進され,AUROCのトレードオフや精度が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-06T10:06:21Z) - GigaCheck: Detecting LLM-generated Content [72.27323884094953]
本稿では,GigaCheckを提案することによって生成したテキスト検出の課題について検討する。
本研究は,LLM生成テキストとLLM生成テキストを区別する手法と,Human-Machine協調テキストにおけるLLM生成間隔を検出する手法について検討する。
具体的には,テキスト内のAI生成間隔をローカライズするために,コンピュータビジョンから適応したDETRのような検出モデルと組み合わせて,微調整の汎用LLMを用いる。
論文 参考訳(メタデータ) (2024-10-31T08:30:55Z) - Unveiling Large Language Models Generated Texts: A Multi-Level Fine-Grained Detection Framework [9.976099891796784]
大型言語モデル (LLM) は文法の修正、内容の拡張、文体の改良によって人間の書き方を変えてきた。
既存の検出方法は、主に単一機能分析とバイナリ分類に依存しているが、学術的文脈においてLLM生成テキストを効果的に識別することができないことが多い。
低レベル構造, 高レベル意味, 深層言語的特徴を統合することで, LLM生成テキストを検出する多レベルきめ細粒度検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-18T07:25:00Z) - ReMoDetect: Reward Models Recognize Aligned LLM's Generations [55.06804460642062]
大型言語モデル (LLM) は人間の好むテキストを生成する。
本稿では,これらのモデルで共有される共通特性について述べる。
報奨モデルの検出能力をさらに向上する2つのトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T17:38:33Z) - SeqXGPT: Sentence-Level AI-Generated Text Detection [62.3792779440284]
大規模言語モデル(LLM)を用いた文書の合成による文レベル検出の課題について紹介する。
次に,文レベルのAIGT検出機能として,ホワイトボックスLEMのログ確率リストを利用した textbfSequence textbfX (Check) textbfGPT を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:18:53Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - LLMDet: A Third Party Large Language Models Generated Text Detection
Tool [119.0952092533317]
大規模言語モデル(LLM)は、高品質な人間によるテキストに非常に近い。
既存の検出ツールは、機械が生成したテキストと人間によるテキストしか区別できない。
本稿では,モデル固有,セキュア,効率的,拡張可能な検出ツールであるLLMDetを提案する。
論文 参考訳(メタデータ) (2023-05-24T10:45:16Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。