論文の概要: Naïve Exposure of Generative AI Capabilities Undermines Deepfake Detection
- arxiv url: http://arxiv.org/abs/2603.10504v1
- Date: Wed, 11 Mar 2026 07:58:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.837236
- Title: Naïve Exposure of Generative AI Capabilities Undermines Deepfake Detection
- Title(参考訳): ディープフェイク検出を損なうAI生成能力のナイーブ露光
- Authors: Sunpill Kim, Chanwoo Hwang, Minsu Kim, Jae Hong Seo,
- Abstract要約: 生成型AIシステムは、意図しない推論によって明示的な認証基準を不注意に外部化することを示す。
洗練された画像は同時に検出を回避し、商業的な顔認識APIによって検証されたアイデンティティを保持し、知覚品質を大幅に向上させる。
その結果,現在の検出フレームワークが想定する脅威モデルと実世界の生成AIの実際の能力との間に構造的ミスマッチがあることが判明した。
- 参考スコア(独自算出の注目度): 12.131387824374597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI systems increasingly expose powerful reasoning and image refinement capabilities through user-facing chatbot interfaces. In this work, we show that the naïve exposure of such capabilities fundamentally undermines modern deepfake detectors. Rather than proposing a new image manipulation technique, we study a realistic and already-deployed usage scenario in which an adversary uses only benign, policy-compliant prompts and commercial generative AI systems. We demonstrate that state-of-the-art deepfake detection methods fail under semantic-preserving image refinement. Specifically, we show that generative AI systems articulate explicit authenticity criteria and inadvertently externalize them through unrestricted reasoning, enabling their direct reuse as refinement objectives. As a result, refined images simultaneously evade detection, preserve identity as verified by commercial face recognition APIs, and exhibit substantially higher perceptual quality. Importantly, we find that widely accessible commercial chatbot services pose a significantly greater security risk than open-source models, as their superior realism, semantic controllability, and low-barrier interfaces enable effective evasion by non-expert users. Our findings reveal a structural mismatch between the threat models assumed by current detection frameworks and the actual capabilities of real-world generative AI. While detection baselines are largely shaped by prior benchmarks, deployed systems expose unrestricted authenticity reasoning and refinement despite stringent safety controls in other domains.
- Abstract(参考訳): 生成AIシステムは、ユーザ対応のチャットボットインターフェースを通じて、強力な推論と画像の精細化機能を公開する傾向にある。
本研究は, 現代のディープフェイク検出器を根本的に損なうことを実証するものである。
新しい画像操作技術を提案するのではなく、敵が良質でポリシーに準拠したプロンプトと商業的な生成AIシステムのみを使用する現実的で既に展開されている利用シナリオについて研究する。
画像のセマンティック保存において,最先端のディープフェイク検出手法が失敗することを実証する。
具体的には、生成型AIシステムは明示的な認証基準を明確に表現し、非制限推論によって不注意に外部化することにより、それらの直接的再利用を洗練された目的として実現することを示す。
その結果、改良された画像は同時に検出を回避し、商業的な顔認識APIによって検証されたアイデンティティを保持し、知覚品質を大幅に向上させる。
重要なことに、広くアクセス可能な商用チャットボットサービスは、優れたリアリズム、セマンティックコントロール可能性、低バリアインタフェースが非専門家による効果的な回避を可能にするため、オープンソースモデルよりもはるかに高いセキュリティリスクをもたらすことが判明した。
その結果,現在の検出フレームワークが想定する脅威モデルと実世界の生成AIの実際の能力との間に構造的ミスマッチがあることが判明した。
検出ベースラインは以前のベンチマークによって大きく形作られていますが、デプロイされたシステムは、他のドメインで厳格な安全制御にもかかわらず、制限なしの信頼性推論と改善を公開しています。
関連論文リスト
- Zero-Shot Visual Deepfake Detection: Can AI Predict and Prevent Fake Content Before It's Created? [7.89029114152292]
デジタルセキュリティ、メディアの完全性、および公的な信頼に対するディープフェイクの脅威は急速に増加している。
本研究は、モデルが特定のディープフェイク変化を見たことがない場合でも、ゼロショットディープフェイク検出(ゼロショットディープフェイク検出)を新たに行う方法である。
論文 参考訳(メタデータ) (2025-09-22T22:33:16Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - AvatarShield: Visual Reinforcement Learning for Human-Centric Synthetic Video Detection [20.800161778433914]
人間中心のビデオ生成法は、人体全体を制御可能な動きで合成することができる。
既存の検出方法は、このようなフルボディの合成コンテンツによって引き起こされるリスクの増大をおおむね見落としている。
マルチモーダルな人間中心型合成ビデオ検出フレームワークであるAvatarShieldを提案する。
論文 参考訳(メタデータ) (2025-05-21T06:43:34Z) - Unleashing the Power of Pre-trained Encoders for Universal Adversarial Attack Detection [21.03032944637112]
アドリアック攻撃は、現実世界のAIシステムにとって重要なセキュリティ脅威となる。
本稿では,大規模事前学習型視覚言語モデルCLIPに基づく,軽量な逆検出フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-01T05:21:45Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Adversarial Robustness of AI-Generated Image Detectors in the Real World [13.52355280061187]
現状の最先端分類器は,実環境下での敵例に対して脆弱であることを示す。
ほとんどの攻撃は、例えばソーシャルメディアプラットフォームへのアップロード中に画像が劣化しても有効である。
ケーススタディでは、HIVEに対してブラックボックス攻撃を行うことにより、これらの堅牢性の課題が商用ツールにも見られることを示した。
論文 参考訳(メタデータ) (2024-10-02T14:11:29Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。