論文の概要: MAGA-Bench: Machine-Augment-Generated Text via Alignment Detection Benchmark
- arxiv url: http://arxiv.org/abs/2601.04633v1
- Date: Thu, 08 Jan 2026 06:07:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.064176
- Title: MAGA-Bench: Machine-Augment-Generated Text via Alignment Detection Benchmark
- Title(参考訳): MAGA-Bench:アライメント検出ベンチマークによるマシン拡張テキスト
- Authors: Anyang Song, Ying Cheng, Yiqian Xu, Rui Feng,
- Abstract要約: 機械生成テキスト(MGT)とHWT(Human-Written Text)の区別がますます困難になりつつある
微調整検出器の一般化能力はデータセットの品質に大きく依存する。
我々は textbfAlignment (MAGA) を用いた textbfMachine-textbfAugment-textbf 生成テキストを提案する。
- 参考スコア(独自算出の注目度): 12.370836919112428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) alignment is constantly evolving. Machine-Generated Text (MGT) is becoming increasingly difficult to distinguish from Human-Written Text (HWT). This has exacerbated abuse issues such as fake news and online fraud. Fine-tuned detectors' generalization ability is highly dependent on dataset quality, and simply expanding the sources of MGT is insufficient. Further augment of generation process is required. According to HC-Var's theory, enhancing the alignment of generated text can not only facilitate attacks on existing detectors to test their robustness, but also help improve the generalization ability of detectors fine-tuned on it. Therefore, we propose \textbf{M}achine-\textbf{A}ugment-\textbf{G}enerated Text via \textbf{A}lignment (MAGA). MAGA's pipeline achieves comprehensive alignment from prompt construction to reasoning process, among which \textbf{R}einforced \textbf{L}earning from \textbf{D}etectors \textbf{F}eedback (RLDF), systematically proposed by us, serves as a key component. In our experiments, the RoBERTa detector fine-tuned on MAGA training set achieved an average improvement of 4.60\% in generalization detection AUC. MAGA Dataset caused an average decrease of 8.13\% in the AUC of the selected detectors, expecting to provide indicative significance for future research on the generalization detection ability of detectors.
- Abstract(参考訳): 大規模言語モデル(LLM)のアライメントは常に進化しています。
機械生成テキスト(MGT)は,HWT(Human-Written Text)と区別することがますます困難になっている。
これは偽ニュースやオンライン詐欺などの悪用問題を悪化させた。
微調整検出器の一般化能力はデータセットの品質に大きく依存しており、MGTのソースを単純に拡張することは不十分である。
さらなる生成プロセスの強化が必要である。
HC-Varの理論によれば、生成されたテキストのアライメントの強化は、既存の検出器への攻撃を促進させ、その堅牢性をテストするだけでなく、それに基づいて微調整された検出器の一般化能力の向上にも寄与する。
そこで我々は, \textbf{M}achine-\textbf{A}ugment-\textbf{G}enerated Text via \textbf{A}lignment (MAGA)を提案する。
MAGAのパイプラインは、プロンプト構造から推論プロセスへの包括的なアライメントを実現しており、その中では、体系的に提案された \textbf{D}etectors \textbf{F}eedback (RLDF) からの \textbf{R}einforced \textbf{L}earning が重要なコンポーネントである。
実験では,MAGAトレーニングセットを微調整したRoBERTa検出器が,一般化検出AUCにおいて平均4.60\%向上した。
MAGAデータセットは、選択された検出器のAUCにおいて平均8.13\%の減少を引き起こし、検出器の一般化検出能力に関する将来の研究に有意な意味を期待した。
関連論文リスト
- HACo-Det: A Study Towards Fine-Grained Machine-Generated Text Detection under Human-AI Coauthoring [14.887491317701997]
本稿では,人間-AI共著者によるMGT検出の可能性について検討する。
より微細な検出器は、数値AI比で、共認可されたテキスト検出への経路を舗装することができることを示唆する。
実験結果から, 平均F1スコア0.462において, 計量法は微粒度検出に苦慮していることがわかった。
論文 参考訳(メタデータ) (2025-06-03T14:52:44Z) - Stress-testing Machine Generated Text Detection: Shifting Language Models Writing Style to Fool Detectors [4.7713095161046555]
本稿では,最新のMGT検出器の言語情報による敵攻撃に対するレジリエンスをテストするパイプラインを提案する。
我々は、MGTスタイルを人文テキスト(HWT)にシフトするために、言語モデルを微調整する。
これは検出器が構造的な手がかりに頼っていることを悪用し、新しい世代を検知することがより困難になる。
論文 参考訳(メタデータ) (2025-05-30T12:33:30Z) - Entropy-Guided Watermarking for LLMs: A Test-Time Framework for Robust and Traceable Text Generation [58.85645136534301]
サンプルテキストの既存の透かし方式は、テキスト品質の維持と各種攻撃に対する堅牢な検出とのトレードオフに直面していることが多い。
累積透かしエントロピー閾値を導入することにより,検出性とテキスト品質を両立させる新しい透かし方式を提案する。
論文 参考訳(メタデータ) (2025-04-16T14:16:38Z) - TextSleuth: Towards Explainable Tampered Text Detection [49.88698441048043]
本稿では,大規模なマルチモーダルモデルを用いて,自然言語による改ざんテキスト検出の基礎を説明する。
このタスクのデータギャップを埋めるため,大規模な包括的データセットETTDを提案する。
GPT4oで高品質な異常記述を生成するために、共同クエリが導入された。
低品質なアノテーションを自動的にフィルタリングするために、GPT4oに改ざんされたテキストを認識するよう促すことも提案する。
論文 参考訳(メタデータ) (2024-12-19T13:10:03Z) - Are AI-Generated Text Detectors Robust to Adversarial Perturbations? [9.001160538237372]
AI生成テキスト(AIGT)の現在の検出器は、敵の摂動に対する堅牢性を欠いている。
本稿では,既存のAIGT検出手法の堅牢性について検討し,新しい検出器であるシームズキャリブレーション・リコンストラクション・ネットワーク(SCRN)を導入する。
SCRNは、テキストからのノイズの追加と除去に再構成ネットワークを使用し、局所的な摂動に対して堅牢な意味表現を抽出する。
論文 参考訳(メタデータ) (2024-06-03T10:21:48Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - MOST: A Multi-Oriented Scene Text Detector with Localization Refinement [67.35280008722255]
シーンテキスト検出のための新しいアルゴリズムを提案し、テキストローカリゼーションの品質を大幅に向上させる一連の戦略を提案する。
具体的には,テキスト・フィーチャー・アライメント・モジュール (TFAM) を提案し,特徴の受容領域を動的に調整する。
信頼できないものを排除するために、位置認識非最大抑制(PA-NMS)モジュールを考案する。
論文 参考訳(メタデータ) (2021-04-02T14:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。