論文の概要: A Theoretically Grounded Hybrid Ensemble for Reliable Detection of LLM-Generated Text
- arxiv url: http://arxiv.org/abs/2511.22153v1
- Date: Thu, 27 Nov 2025 06:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.429123
- Title: A Theoretically Grounded Hybrid Ensemble for Reliable Detection of LLM-Generated Text
- Title(参考訳): LLMテキストの信頼性検出のための理論的根拠付きハイブリッドアンサンブル
- Authors: Sepyan Purnama Kristanto, Lutfi Hakim,
- Abstract要約: 本稿では,3つの相補的検出パラダイムを融合した,理論的に基礎付けられたハイブリッドアンサンブルを提案する。
中心となる新規性は、F1スコアを最大化する確率的単純度に基づいてアンサンブル重みを学習する最適化された重み付き投票フレームワークにある。
本システムでは、94.2%の精度と0.978のAUCを達成し、学術テキスト上での偽陽性を35%削減した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rapid proliferation of Large Language Models (LLMs) has blurred the line between human and machine authorship, creating practical risks for academic integrity and information reliability. Existing text detectors typically rely on a single methodological paradigm and suffer from poor generalization and high false positive rates (FPR), especially on high-stakes academic text. We propose a theoretically grounded hybrid ensemble that systematically fuses three complementary detection paradigms: (i) a RoBERTa-based transformer classifier for deep semantic feature extraction, (ii) a GPT-2-based probabilistic detector using perturbation-induced likelihood curvature, and (iii) a statistical linguistic feature analyzer capturing stylometric patterns. The core novelty lies in an optimized weighted voting framework, where ensemble weights are learned on the probability simplex to maximize F1-score rather than set heuristically. We provide a bias-variance analysis and empirically demonstrate low inter-model correlation (rho ~ 0.35-0.42), a key condition for variance reduction. Evaluated on a large-scale, multigenerator corpus of 30,000 documents, our system achieves 94.2% accuracy and an AUC of 0.978, with a 35% relative reduction in false positives on academic text. This yields a more reliable and ethically responsible detector for real-world deployment in education and other high-stakes domains.
- Abstract(参考訳): LLM(Large Language Models)の急速な普及は、人間と機械のオーサシップの境界を曖昧にし、学術的整合性と情報信頼性の実践的なリスクを生み出している。
既存のテキスト検出器は通常、単一の方法論パラダイムに依存しており、特に高度な学術的テキストにおいて、一般化の貧弱さと偽陽性率(FPR)に悩まされている。
本稿では,3つの相補的検出パラダイムを体系的に融合する,理論的に基礎付けられたハイブリッドアンサンブルを提案する。
(i)深い意味的特徴抽出のためのRoBERTaベースの変換器分類器
(II)摂動誘起電位曲率を用いたGPT-2に基づく確率的検出装置、及び
三 統計言語学的特徴分析装置で、テクスチャパターンをキャプチャする。
中心となる新規性は最適化された重み付け投票フレームワークにあり、そこではアンサンブル重みが確率的単純度に基づいて学習され、ヒューリスティックに設定されるよりもF1スコアを最大化する。
本稿では, バイアス分散解析を行い, モデル間相関の低さ (rho ~ 0.35-0.42) を実証する。
大規模・マルチジェネレータコーパスで3万件の文書を評価した結果,94.2%の精度と0.978のAUCが得られた。
これにより、教育やその他の高度な領域における現実世界の展開に対して、より信頼性が高く倫理的に責任を負う検出器が得られる。
関連論文リスト
- Large Language Models for Full-Text Methods Assessment: A Case Study on Mediation Analysis [15.98124151893659]
大規模言語モデル(LLM)は方法論的評価の自動化の可能性を秘めている。
我々は180のフルテキストの科学論文に対して、最先端のLLMを専門家の人間レビュアーに対してベンチマークした。
論文 参考訳(メタデータ) (2025-10-12T19:04:22Z) - Span-level Detection of AI-generated Scientific Text via Contrastive Learning and Structural Calibration [2.105564340986074]
Sci-SpanDetはAI生成した学術テキストを検出するための構造認識フレームワークである。
セクション条件付きスタイリスティックモデリングとマルチレベルコントラスト学習を組み合わせることで、人間のニュアンスとAIの違いを捉える。
F1(AI)は80.17、AUROCは92.63、Span-F1は74.36である。
論文 参考訳(メタデータ) (2025-10-01T13:35:14Z) - Modeling the Attack: Detecting AI-Generated Text by Quantifying Adversarial Perturbations [2.7620215077666557]
現代の検出器は敵の攻撃に弱いことで知られており、パラフレーズは効果的な回避技術として際立っている。
本稿では,まず,標準的な対人訓練の限界を定量化することにより,対人的堅牢性の比較研究を行う。
次に、新しい、はるかに回復力のある検出フレームワークを紹介します。
論文 参考訳(メタデータ) (2025-09-22T13:03:53Z) - T-Detect: Tail-Aware Statistical Normalization for Robust Detection of Adversarial Machine-Generated Text [16.983417848762826]
大規模言語モデル(LLM)は、流動的で論理的なコンテンツを生成する能力を示し、機械生成のテキスト検出に重大な課題を提示している。
本稿では、曲率に基づく検出器を根本的に再設計する新しい検出法であるT-Detectを紹介する。
我々の貢献は、テキスト検出の理論的に正当化された新しい統計基盤、優れた堅牢性を示すアブレーション検証法、および敵条件下での性能の包括的解析である。
論文 参考訳(メタデータ) (2025-07-31T14:08:04Z) - T2I-Eval-R1: Reinforcement Learning-Driven Reasoning for Interpretable Text-to-Image Evaluation [60.620408007636016]
T2I-Eval-R1は,大まかな品質スコアのみを用いて,オープンソースのMLLMを訓練する新しい強化学習フレームワークである。
提案手法では,グループ相対政策最適化を命令調整プロセスに統合し,スカラースコアと解釈可能な推論チェーンの両方を生成する。
論文 参考訳(メタデータ) (2025-05-23T13:44:59Z) - Lie Detector: Unified Backdoor Detection via Cross-Examination Framework [68.45399098884364]
半正直な設定で一貫したバックドア検出フレームワークを提案する。
本手法は,SoTAベースラインよりも5.4%,1.6%,11.9%の精度で検出性能が向上する。
特に、マルチモーダルな大規模言語モデルにおいて、バックドアを効果的に検出するのは、これが初めてである。
論文 参考訳(メタデータ) (2025-03-21T06:12:06Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Differential privacy and robust statistics in high dimensions [49.50869296871643]
高次元Propose-Test-Release (HPTR) は指数的メカニズム、頑健な統計、Propose-Test-Release メカニズムという3つの重要なコンポーネントの上に構築されている。
本論文では,HPTRが複数のシナリオで最適サンプル複雑性をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2021-11-12T06:36:40Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。