論文の概要: Towards Trustworthy AI: Secure Deepfake Detection using CNNs and Zero-Knowledge Proofs
- arxiv url: http://arxiv.org/abs/2507.17010v1
- Date: Tue, 22 Jul 2025 20:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.768564
- Title: Towards Trustworthy AI: Secure Deepfake Detection using CNNs and Zero-Knowledge Proofs
- Title(参考訳): 信頼できるAIに向けて:CNNとゼロ知識証明を用いたセキュアなディープフェイク検出
- Authors: H M Mohaimanul Islam, Huynh Q. N. Vo, Aditya Rane,
- Abstract要約: TrustDefenderは、リアルタイム拡張現実(XR)ストリームでディープフェイク画像を検出するフレームワークである。
私たちの研究は、没入的でプライバシーに敏感なアプリケーションにおいて、信頼できるAIの基礎を確立します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of synthetic media, deepfake manipulations pose a significant threat to information integrity. To address this challenge, we propose TrustDefender, a two-stage framework comprising (i) a lightweight convolutional neural network (CNN) that detects deepfake imagery in real-time extended reality (XR) streams, and (ii) an integrated succinct zero-knowledge proof (ZKP) protocol that validates detection results without disclosing raw user data. Our design addresses both the computational constraints of XR platforms while adhering to the stringent privacy requirements in sensitive settings. Experimental evaluations on multiple benchmark deepfake datasets demonstrate that TrustDefender achieves 95.3% detection accuracy, coupled with efficient proof generation underpinned by rigorous cryptography, ensuring seamless integration with high-performance artificial intelligence (AI) systems. By fusing advanced computer vision models with provable security mechanisms, our work establishes a foundation for reliable AI in immersive and privacy-sensitive applications.
- Abstract(参考訳): 合成メディアの時代、ディープフェイク操作は情報の完全性に重大な脅威をもたらす。
この課題に対処するため、我々はTrustDefenderという2段階のフレームワークを提案する。
(i)リアルタイム拡張現実(XR)ストリームにおけるディープフェイク画像を検出する軽量畳み込みニューラルネットワーク(CNN)
(II) 生のユーザデータを開示することなく検出結果の検証を行うZKPプロトコル。
我々の設計は、機密性の高い設定における厳密なプライバシー要件に固執しながら、XRプラットフォームの計算上の制約に対処する。
複数のベンチマークディープフェイクデータセットに対する実験的評価は、TrustDefenderが95.3%の精度で検出し、厳密な暗号に支えられた効率的な証明生成と組み合わせ、高性能人工知能(AI)システムとのシームレスな統合を保証することを示した。
我々の研究は、高度なコンピュータビジョンモデルを証明可能なセキュリティメカニズムで融合させることで、没入的でプライバシーに敏感なアプリケーションにおける信頼性の高いAIの基礎を確立します。
関連論文リスト
- Enhancing Deepfake Detection using SE Block Attention with CNN [5.7494612007431805]
本稿では,Deepfake検出のための圧縮・励起ブロックアテンション(SE)を備えた軽量畳み込みニューラルネットワーク(CNN)を提案する。
このモデルは全体の分類精度94.14%、AUC-ROCスコア0.985をStyle GANデータセットで達成した。
提案手法は,最小限の計算資源でDeepfakeチャレンジと戦うための有望な道を示す。
論文 参考訳(メタデータ) (2025-06-12T13:29:26Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Deepfake Sentry: Harnessing Ensemble Intelligence for Resilient Detection and Generalisation [0.8796261172196743]
本稿では,持続的かつ積極的なディープフェイクトレーニング強化ソリューションを提案する。
我々は、ディープフェイクジェネレータモデルによって導入されたアーティファクトの効果を模倣するオートエンコーダのプールを採用する。
実験の結果,提案するアンサンブル・オートエンコーダに基づくデータ拡張学習手法が一般化の点で改善されていることがわかった。
論文 参考訳(メタデータ) (2024-03-29T19:09:08Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。