論文の概要: Machine Text Detectors are Membership Inference Attacks
- arxiv url: http://arxiv.org/abs/2510.19492v1
- Date: Wed, 22 Oct 2025 11:39:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.743649
- Title: Machine Text Detectors are Membership Inference Attacks
- Title(参考訳): 機械テキスト検出器はメンバーシップ推論攻撃である
- Authors: Ryuto Koike, Liam Dugan, Masahiro Kaneko, Chris Callison-Burch, Naoaki Okazaki,
- Abstract要約: 我々は,あるタスクに対してもともと開発された手法が,他方でどのように機能するかを理論的,実証的に検討する。
7つの最先端MIA法と5つの最先端マシンテキスト検出器を含む大規模実験は、クロスタスク性能において非常に強いランク相関(rho >)を示す。
この結果から,両研究コミュニティ間のクロスタスク意識とコラボレーションの必要性が示唆された。
- 参考スコア(独自算出の注目度): 55.07733196689313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although membership inference attacks (MIAs) and machine-generated text detection target different goals, identifying training samples and synthetic texts, their methods often exploit similar signals based on a language model's probability distribution. Despite this shared methodological foundation, the two tasks have been independently studied, which may lead to conclusions that overlook stronger methods and valuable insights developed in the other task. In this work, we theoretically and empirically investigate the transferability, i.e., how well a method originally developed for one task performs on the other, between MIAs and machine text detection. For our theoretical contribution, we prove that the metric that achieves the asymptotically highest performance on both tasks is the same. We unify a large proportion of the existing literature in the context of this optimal metric and hypothesize that the accuracy with which a given method approximates this metric is directly correlated with its transferability. Our large-scale empirical experiments, including 7 state-of-the-art MIA methods and 5 state-of-the-art machine text detectors across 13 domains and 10 generators, demonstrate very strong rank correlation (rho > 0.6) in cross-task performance. We notably find that Binoculars, originally designed for machine text detection, achieves state-of-the-art performance on MIA benchmarks as well, demonstrating the practical impact of the transferability. Our findings highlight the need for greater cross-task awareness and collaboration between the two research communities. To facilitate cross-task developments and fair evaluations, we introduce MINT, a unified evaluation suite for MIAs and machine-generated text detection, with implementation of 15 recent methods from both tasks.
- Abstract(参考訳): メンバシップ推論攻撃(MIA)と機械生成テキスト検出は異なる目標を目標とし、トレーニングサンプルと合成テキストを識別するが、それらの手法は言語モデルの確率分布に基づいた類似した信号を利用することが多い。
この共通方法論の基礎にもかかわらず、この2つのタスクは独立して研究され、これは、他のタスクで開発されたより強力な方法や価値ある洞察を見落としている結論につながる可能性がある。
本研究は,MIAと機械テキスト検出の間において,一方のタスクに対して開発された手法が他方のタスクに対してどの程度うまく機能するかを理論的,実証的に検討する。
理論的貢献のために、両課題における漸近的に高い性能を達成する計量は同じであることを示す。
我々は、この最適計量の文脈において、既存の文献の大部分を統一し、与えられたメソッドがこの計量に近似した精度が、その伝達可能性と直接相関していると仮定する。
7つの最先端MIA法と、13のドメインと10のジェネレータにまたがる5つの最先端マシンテキスト検出器を含む大規模な実験は、クロスタスク性能において非常に強いランク相関(rho > 0.6)を示す。
特に,Binocularsはもともと機械テキスト検出用に設計されており,MIAベンチマーク上での最先端性能を実現し,転送可能性の実践的影響を実証している。
この結果から,両研究コミュニティ間のクロスタスク意識とコラボレーションの必要性が示唆された。
クロスタスク開発と公平な評価を容易にするため,MIAと機械生成テキスト検出のための統合評価スイートであるMINTを導入し,両タスクから15の手法を実装した。
関連論文リスト
- Human Texts Are Outliers: Detecting LLM-generated Texts via Out-of-distribution Detection [71.59834293521074]
我々は,人間によるテキストと機械によるテキストを区別する枠組みを開発した。
提案手法は,DeepFakeデータセット上で98.3%のAUROCとAUPRを8.9%のFPR95で達成する。
コード、事前トレーニングされたウェイト、デモがリリースされる。
論文 参考訳(メタデータ) (2025-10-07T08:14:45Z) - DetectAnyLLM: Towards Generalizable and Robust Detection of Machine-Generated Text Across Domains and Models [60.713908578319256]
タスク指向の知識で検出器を最適化するために,DDL(Direct Discrepancy Learning)を提案する。
そこで本研究では,最新のMGTD性能を実現する統合検出フレームワークであるTectAnyLLMを紹介する。
MIRAGEは5つのテキストドメインにまたがる10のコーパスから人書きテキストをサンプリングし、17個の最先端のLLMを使用して再生成または修正する。
論文 参考訳(メタデータ) (2025-09-15T10:59:57Z) - On the Robustness of Human-Object Interaction Detection against Distribution Shift [27.40641711088878]
近年,Human-Object Interaction (HOI) 検出が大幅に進歩している。
既存の作業は、必然的な分布シフトを伴う現実的なシナリオとはかけ離れた、理想的なイメージと自然な分布を持つ標準設定に重点を置いている。
本研究では,様々な分布シフト下でのHOI検出モデルのロバスト性をベンチマークし,解析し,向上させることにより,この問題を考察する。
論文 参考訳(メタデータ) (2025-06-22T13:01:34Z) - Open-Domain Text Evaluation via Contrastive Distribution Methods [75.59039812868681]
本稿では,Contrastive Distribution Methodsと呼ばれるオープンドメインテキスト生成手法を提案する。
マルチターン対話におけるコヒーレンス評価と制御可能な生成におけるコヒーレンス評価の実験により,CDMの優位性は人間の判断と相関していることが示された。
論文 参考訳(メタデータ) (2023-06-20T20:37:54Z) - On the Possibilities of AI-Generated Text Detection [76.55825911221434]
機械が生成するテキストが人間に近い品質を近似するにつれて、検出に必要なサンプルサイズが増大すると主張している。
GPT-2, GPT-3.5-Turbo, Llama, Llama-2-13B-Chat-HF, Llama-2-70B-Chat-HFなどの最先端テキストジェネレータをoBERTa-Large/Base-Detector, GPTZeroなどの検出器に対して試験した。
論文 参考訳(メタデータ) (2023-04-10T17:47:39Z) - MGTBench: Benchmarking Machine-Generated Text Detection [54.81446366272403]
本稿では,強力な大規模言語モデル(LLM)に対するMGT検出のための最初のベンチマークフレームワークを提案する。
一般に単語が多ければ多いほど性能が向上し,ほとんどの検出手法はトレーニングサンプルをはるかに少なくして同様の性能が得られることを示す。
本研究は, テキスト属性タスクにおいて, モデルに基づく検出手法が依然として有効であることを示す。
論文 参考訳(メタデータ) (2023-03-26T21:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。