論文の概要: When AI Settles Down: Late-Stage Stability as a Signature of AI-Generated Text Detection
- arxiv url: http://arxiv.org/abs/2601.04833v1
- Date: Thu, 08 Jan 2026 11:11:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.175275
- Title: When AI Settles Down: Late-Stage Stability as a Signature of AI-Generated Text Detection
- Title(参考訳): AIが落ち着くとき:AI生成テキスト検出の象徴としての後期安定性
- Authors: Ke Sun, Guangsheng Bao, Han Cui, Yue Zhang,
- Abstract要約: 我々は120k以上のテキストサンプルを分析し、レイトステージのボラティリティの低下を明らかにする: AI生成されたテキストは、生成が進むにつれて、ログの確率変動を急速に安定化させる。
先進的分散と局所ボラティリティの2つの単純な特徴を提案する。
- 参考スコア(独自算出の注目度): 15.739137990102991
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Zero-shot detection methods for AI-generated text typically aggregate token-level statistics across entire sequences, overlooking the temporal dynamics inherent to autoregressive generation. We analyze over 120k text samples and reveal Late-Stage Volatility Decay: AI-generated text exhibits rapidly stabilizing log probability fluctuations as generation progresses, while human writing maintains higher variability throughout. This divergence peaks in the second half of sequences, where AI-generated text shows 24--32\% lower volatility. Based on this finding, we propose two simple features: Derivative Dispersion and Local Volatility, which computed exclusively from late-stage statistics. Without perturbation sampling or additional model access, our method achieves state-of-the-art performance on EvoBench and MAGE benchmarks and demonstrates strong complementarity with existing global methods.
- Abstract(参考訳): AI生成テキストのゼロショット検出方法は、通常、全シーケンスにわたってトークンレベルの統計データを集約し、自己回帰生成に固有の時間的ダイナミクスを見渡す。
我々は120k以上のテキストサンプルを分析し、レイトステージのボラティリティの低下を明らかにする: AI生成されたテキストは、生成が進むにつれて、ログの確率変動を急速に安定化させ、一方で、人間の書き込みは、高い変動性を維持している。
このばらつきは、AI生成されたテキストが24-32\%低いボラティリティを示すシーケンスの後半でピークとなる。
この発見に基づいて、我々は、後期統計のみから計算した微分分散と局所ボラティリティの2つの簡単な特徴を提案する。
提案手法は,摂動サンプリングやモデルアクセスを伴わずに,EvoBenchおよびMAGEベンチマーク上での最先端性能を実現し,既存のグローバル手法と強い相補性を示す。
関連論文リスト
- Human Texts Are Outliers: Detecting LLM-generated Texts via Out-of-distribution Detection [71.59834293521074]
我々は,人間によるテキストと機械によるテキストを区別する枠組みを開発した。
提案手法は,DeepFakeデータセット上で98.3%のAUROCとAUPRを8.9%のFPR95で達成する。
コード、事前トレーニングされたウェイト、デモがリリースされる。
論文 参考訳(メタデータ) (2025-10-07T08:14:45Z) - Temporal-Aware Iterative Speech Model for Dementia Detection [0.0]
音声を用いた認知症自動検出の現在の手法は,静的,時間に依存しない特徴や集約された言語コンテンツに依存している。
本稿では,認知症検出のための自然発話を動的にモデル化するテンポラル・アウェア・イテレーティブ・フレームワークであるTAI-Speechを紹介する。
私たちの研究は、より柔軟で堅牢な認知評価ソリューションを提供し、生のオーディオのダイナミクスを直接操作します。
論文 参考訳(メタデータ) (2025-09-26T01:56:07Z) - Diversity Boosts AI-Generated Text Detection [51.56484100374058]
DivEyeは、予備的な機能を使って、予測不可能がテキスト間でどのように変動するかをキャプチャする、新しいフレームワークである。
提案手法は、既存のゼロショット検出器を最大33.2%向上させ、微調整ベースラインとの競合性能を達成する。
論文 参考訳(メタデータ) (2025-09-23T10:21:22Z) - Fine-Grained Detection of AI-Generated Text Using Sentence-Level Segmentation [3.088244520495001]
人間とAI生成テキスト間の遷移を検出するための文レベルのシーケンスラベリングモデルの提案
我々のモデルは、ニューラルネットワーク(NN)と条件ランダムフィールド(CRF)を組み込んだ最先端の事前学習トランスフォーマーモデルを組み合わせる。
評価は、協力的な人間とAI生成されたテキストを含む2つの公開ベンチマークデータセットで実行される。
論文 参考訳(メタデータ) (2025-09-22T14:22:55Z) - DNA-DetectLLM: Unveiling AI-Generated Text via a DNA-Inspired Mutation-Repair Paradigm [17.258462909671525]
本稿では,AI生成テキストと人文テキストを区別するゼロショット検出手法であるDNA-DetectLLMを紹介する。
DNA-DetectLLMはAUROCで5.55%、F1スコアで2.08%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2025-09-19T03:08:13Z) - Time Is a Feature: Exploiting Temporal Dynamics in Diffusion Language Models [57.474294329887236]
拡散大言語モデル (dLLMs) は反復的 denoising を通じてテキストを生成する。
現在のデコード戦略は、最終的な出力に有利なリッチな中間予測を捨てている。
時間的整合性を利用する2つの相補的手法を導入する。
論文 参考訳(メタデータ) (2025-08-12T17:59:57Z) - Quality-Aware Language-Conditioned Local Auto-Regressive Anomaly Synthesis and Detection [30.77558600436759]
ARAS(ARAS)は、言語条件付き自動回帰異常合成手法である。
トークンアンコールによる遅延編集によって、ローカルでテキスト指定の欠陥を通常の画像に注入する。
欠陥リアリズムを著しく強化し、きめ細かい材料テクスチャを保存し、合成された異常に対して連続的な意味制御を提供する。
論文 参考訳(メタデータ) (2025-08-05T15:07:32Z) - AI-Generated Text is Non-Stationary: Detection via Temporal Tomography [22.211451973387796]
本稿では,信号処理タスクとして検出を再構成することによって位置情報を保存する新しい検出パラダイムであるTDTを紹介する。
RAIDベンチマークでは、TDTは0.855 AUROC(最高のベースラインよりも7.1%改善)を達成した。
我々の研究は、AI生成テキストの基本的な特徴として非定常性を確立し、時間的ダイナミクスの保存が堅牢な検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2025-08-03T13:43:34Z) - Group-Adaptive Threshold Optimization for Robust AI-Generated Text Detection [58.419940585826744]
本稿では,確率的AIテキスト検出のためのグループ固有しきい値最適化アルゴリズムであるFairOPTを紹介する。
属性(例えば、テキストの長さと書き込みスタイル)に基づいてデータをサブグループに分割し、FairOPTを実装して、各グループに対する決定しきい値の学習を行い、不一致を低減しました。
我々のフレームワークは、後処理によるAI生成コンテンツ検出において、より堅牢な分類の道を開く。
論文 参考訳(メタデータ) (2025-02-06T21:58:48Z) - Boosting Semi-Supervised Scene Text Recognition via Viewing and Summarizing [71.29488677105127]
既存のシーンテキスト認識(STR)手法は、特に芸術的で歪んだ文字に対して、挑戦的なテキストを認識するのに苦労している。
人的コストを伴わずに、合成データと実際のラベルなしデータを活用して、対照的な学習ベースのSTRフレームワークを提案する。
本手法は,共通ベンチマークとUnion14M-Benchmarkで平均精度94.7%,70.9%のSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-11-23T15:24:47Z) - Detecting Machine-Generated Long-Form Content with Latent-Space Variables [54.07946647012579]
既存のゼロショット検出器は主に、現実世界のドメインシフトに弱いトークンレベルの分布に焦点を当てている。
本稿では,イベント遷移などの抽象的要素を機械対人文検出の鍵となる要因として組み込んだ,より堅牢な手法を提案する。
論文 参考訳(メタデータ) (2024-10-04T18:42:09Z) - Improving Sampling Methods for Fine-tuning SentenceBERT in Text Streams [49.3179290313959]
本研究では,選択的な微調整言語モデルの設計した7つのテキストサンプリング手法の有効性について検討した。
これらの手法がSBERTモデルの微調整に与える影響を, 4つの異なる損失関数を用いて正確に評価する。
その結果,テキストストリームの分類にはソフトマックスの損失とバッチ・オール・トリプレットの損失が特に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T23:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。