論文の概要: StyleDecipher: Robust and Explainable Detection of LLM-Generated Texts with Stylistic Analysis
- arxiv url: http://arxiv.org/abs/2510.12608v1
- Date: Tue, 14 Oct 2025 15:07:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.362493
- Title: StyleDecipher: Robust and Explainable Detection of LLM-Generated Texts with Stylistic Analysis
- Title(参考訳): StyleDecipher: スティリスティック解析によるLCM生成テキストのロバストと説明可能な検出
- Authors: Siyuan Li, Aodu Wulianghai, Xi Lin, Guangyan Li, Xiang Chen, Jun Wu, Jianhua Li,
- Abstract要約: StyleDecipherは堅牢で説明可能な検出フレームワークである。
組み合わせた特徴抽出器を用いてテキスト検出を再検討し、構造的差異を定量化する。
常に最先端のドメイン内精度を達成する。
- 参考スコア(独自算出の注目度): 18.44456241158174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasing integration of large language models (LLMs) into open-domain writing, detecting machine-generated text has become a critical task for ensuring content authenticity and trust. Existing approaches rely on statistical discrepancies or model-specific heuristics to distinguish between LLM-generated and human-written text. However, these methods struggle in real-world scenarios due to limited generalization, vulnerability to paraphrasing, and lack of explainability, particularly when facing stylistic diversity or hybrid human-AI authorship. In this work, we propose StyleDecipher, a robust and explainable detection framework that revisits LLM-generated text detection using combined feature extractors to quantify stylistic differences. By jointly modeling discrete stylistic indicators and continuous stylistic representations derived from semantic embeddings, StyleDecipher captures distinctive style-level divergences between human and LLM outputs within a unified representation space. This framework enables accurate, explainable, and domain-agnostic detection without requiring access to model internals or labeled segments. Extensive experiments across five diverse domains, including news, code, essays, reviews, and academic abstracts, demonstrate that StyleDecipher consistently achieves state-of-the-art in-domain accuracy. Moreover, in cross-domain evaluations, it surpasses existing baselines by up to 36.30%, while maintaining robustness against adversarial perturbations and mixed human-AI content. Further qualitative and quantitative analysis confirms that stylistic signals provide explainable evidence for distinguishing machine-generated text. Our source code can be accessed at https://github.com/SiyuanLi00/StyleDecipher.
- Abstract(参考訳): 大規模言語モデル(LLM)のオープンドメイン書き込みへの統合が進むにつれ、機械生成テキストの検出は、コンテンツの信頼性と信頼性を確保する上で重要な課題となっている。
既存のアプローチは、LSM生成テキストと人文テキストを区別するために、統計的な相違やモデル固有のヒューリスティックに依存している。
しかし、これらの手法は、限定的な一般化、言い換えの脆弱性、説明可能性の欠如、特にスタイリスティックな多様性やハイブリッドな人間-AIオーサシップに直面している場合に、現実のシナリオで苦労する。
本研究では,LLM生成したテキスト検出を合成した特徴抽出器を用いて再検討し,構造的差異を定量化する,頑健で説明可能な検出フレームワークであるStyleDecipherを提案する。
セマンティックな埋め込みから導かれる個別のスタイリスティックな指標と連続的なスタイリスティックな表現を共同でモデル化することにより、StyleDecipherは、統一された表現空間内で人間とLLMの出力の独特のスタイルレベルのばらつきをキャプチャする。
このフレームワークは、モデル内部やラベル付きセグメントへのアクセスを必要とせずに、正確な、説明可能な、ドメインに依存しない検出を可能にする。
ニュース、コード、エッセイ、レビュー、学術的な要約を含む5つの分野にわたる大規模な実験は、StyleDecipherが一貫して最先端のドメイン内精度を達成することを実証している。
さらに、クロスドメイン評価では、既存のベースラインを最大36.30%上回り、対向的摂動と混在する人間-AIコンテンツに対する堅牢性を維持している。
さらに質的かつ定量的な分析により、スタイリスティックな信号が機械生成テキストを識別するための説明可能な証拠を提供することを確認した。
私たちのソースコードはhttps://github.com/SiyuanLi00/StyleDecipherでアクセスできます。
関連論文リスト
- Human Texts Are Outliers: Detecting LLM-generated Texts via Out-of-distribution Detection [71.59834293521074]
我々は,人間によるテキストと機械によるテキストを区別する枠組みを開発した。
提案手法は,DeepFakeデータセット上で98.3%のAUROCとAUPRを8.9%のFPR95で達成する。
コード、事前トレーニングされたウェイト、デモがリリースされる。
論文 参考訳(メタデータ) (2025-10-07T08:14:45Z) - Diversity Boosts AI-Generated Text Detection [51.56484100374058]
DivEyeは、予備的な機能を使って、予測不可能がテキスト間でどのように変動するかをキャプチャする、新しいフレームワークである。
提案手法は、既存のゼロショット検出器を最大33.2%向上させ、微調整ベースラインとの競合性能を達成する。
論文 参考訳(メタデータ) (2025-09-23T10:21:22Z) - Feature-Level Insights into Artificial Text Detection with Sparse Autoencoders [20.557610461777344]
Sparse Autoencoders (SAE) を用いてGemma-2-2b残ストリームから特徴を抽出する。
解釈可能な特徴と効率的な特徴の両方を識別し,その意味と妥当性を解析する。
提案手法は, さまざまなモデルからのテキストと人文コンテンツとの相違点について, 貴重な知見を提供する。
論文 参考訳(メタデータ) (2025-03-05T15:33:52Z) - Unveiling Large Language Models Generated Texts: A Multi-Level Fine-Grained Detection Framework [9.976099891796784]
大型言語モデル (LLM) は文法の修正、内容の拡張、文体の改良によって人間の書き方を変えてきた。
既存の検出方法は、主に単一機能分析とバイナリ分類に依存しているが、学術的文脈においてLLM生成テキストを効果的に識別することができないことが多い。
低レベル構造, 高レベル意味, 深層言語的特徴を統合することで, LLM生成テキストを検出する多レベルきめ細粒度検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-18T07:25:00Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Towards Next-Generation Steganalysis: LLMs Unleash the Power of Detecting Steganography [18.7168443402118]
言語ステガノグラフィーは、特にAI生成技術の出現と共に、メッセージを隠蔽するための便利な実装を提供する。
既存の手法は、記号統計学の側面から、ステガノグラフテキストと正規テキストの分布差を見つけることに限定されている。
本稿では,大規模言語モデル(LLM)のヒューマンライクなテキスト処理機能を用いて,人間の知覚との違いを実現することを提案する。
論文 参考訳(メタデータ) (2024-05-15T04:52:09Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - A Robust Deep Ensemble Classifier for Figurative Language Detection [1.3124513975412255]
自然言語処理(NLP)の幅広い分野における感性分析のオープンな問題である言語認識(FL)
本論文では,高度なDeep Learning (DL) 技術に対処する,皮肉,皮肉,メタファの3つの相互関連FL認識タスクについて述べる。
Deep Soft Ensemble (DESC) モデルは、FL認識の挑戦的な分野において、関連する方法論や最先端技術と比較すると、非常に優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-09T11:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。