論文の概要: A General Method for Detecting Information Generated by Large Language Models
- arxiv url: http://arxiv.org/abs/2506.21589v1
- Date: Wed, 18 Jun 2025 04:59:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.307201
- Title: A General Method for Detecting Information Generated by Large Language Models
- Title(参考訳): 大規模言語モデルによる情報検出の一方法
- Authors: Minjia Mao, Dongjun Wei, Xiao Fang, Michael Chau,
- Abstract要約: 大規模言語モデル (LLM) はデジタル情報のランドスケープを変革し、人間の書き起こしコンテンツとLLM生成コンテンツの区別を困難にしている。
現在の検出法は、新しい(目に見えない)LCMやドメインに一般化する際の課題に直面している。
本稿では,2つのメモリネットワーク設計と理論誘導型検出一般化モジュールを組み合わせた汎用LLM検出器(GLD)を提案する。
- 参考スコア(独自算出の注目度): 1.3624495460189865
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The proliferation of large language models (LLMs) has significantly transformed the digital information landscape, making it increasingly challenging to distinguish between human-written and LLM-generated content. Detecting LLM-generated information is essential for preserving trust on digital platforms (e.g., social media and e-commerce sites) and preventing the spread of misinformation, a topic that has garnered significant attention in IS research. However, current detection methods, which primarily focus on identifying content generated by specific LLMs in known domains, face challenges in generalizing to new (i.e., unseen) LLMs and domains. This limitation reduces their effectiveness in real-world applications, where the number of LLMs is rapidly multiplying and content spans a vast array of domains. In response, we introduce a general LLM detector (GLD) that combines a twin memory networks design and a theory-guided detection generalization module to detect LLM-generated information across unseen LLMs and domains. Using real-world datasets, we conduct extensive empirical evaluations and case studies to demonstrate the superiority of GLD over state-of-the-art detection methods. The study has important academic and practical implications for digital platforms and LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)の普及は、デジタル情報のランドスケープを大きく変え、人間の書き起こしコンテンツとLLM生成コンテンツの区別がますます困難になっている。
デジタルプラットフォーム(例えばソーシャルメディアやeコマースサイト)の信頼を保ち、偽情報の拡散を防ぐためには、LCM生成情報の検出が不可欠である。
しかし、既知のドメインにおける特定のLLMによって生成されたコンテンツを特定することに焦点を当てた現在の検出手法では、新しい(目に見えない)LLMやドメインへの一般化の課題に直面している。
この制限により、LLMの数は急速に倍増し、コンテンツは膨大な領域にまたがる現実世界のアプリケーションにおいて有効性が低下する。
そこで本研究では,2つのメモリネットワーク設計と理論誘導型検出一般化モジュールを組み合わせた汎用LSM検出器(GLD)を導入し,LCM生成情報を未知のLSMやドメインにわたって検出する。
実世界のデータセットを用いて、GLDが最先端検出法よりも優れていることを示すために、広範な実験的評価とケーススタディを行う。
この研究は、デジタルプラットフォームとLLMにとって重要な学術的および実践的な意味を持っている。
関連論文リスト
- Beyond Binary: Towards Fine-Grained LLM-Generated Text Detection via Role Recognition and Involvement Measurement [51.601916604301685]
大規模言語モデル(LLM)は、オンライン談話における信頼を損なう可能性のあるコンテンツを生成する。
現在の手法はバイナリ分類に重点を置いており、人間とLLMのコラボレーションのような現実のシナリオの複雑さに対処できないことが多い。
バイナリ分類を超えてこれらの課題に対処するために,LLM生成コンテンツを検出するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-18T08:14:10Z) - Catching Chameleons: Detecting Evolving Disinformation Generated using Large Language Models [16.408611714514976]
我々は,事前学習した言語モデルの一般的な事実チェック機能と協調的に活用するパラメータ効率の高いDLD(Detecting Evolving LLM-Generative Disinformation)を提案する。
実験の結果, TextitDELD は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-26T00:21:39Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - A Survey on LLM-Generated Text Detection: Necessity, Methods, and Future Directions [39.36381851190369]
LLM生成テキストを検出できる検出器を開発する必要がある。
このことは、LLMが生成するコンテンツの有害な影響から、LLMの潜在的な誤用や、芸術的表現やソーシャルネットワークのような保護領域の軽減に不可欠である。
この検出器技術は、ウォーターマーキング技術、統計ベースの検出器、神経ベース検出器、そして人間の支援手法の革新によって、最近顕著な進歩をみせている。
論文 参考訳(メタデータ) (2023-10-23T09:01:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。