論文の概要: Towards Trustworthy AI: Secure Deepfake Detection using CNNs and Zero-Knowledge Proofs
- arxiv url: http://arxiv.org/abs/2507.17010v1
- Date: Tue, 22 Jul 2025 20:47:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:14.768564
- Title: Towards Trustworthy AI: Secure Deepfake Detection using CNNs and Zero-Knowledge Proofs
- Title(参考訳): 信頼できるAIに向けて:CNNとゼロ知識証明を用いたセキュアなディープフェイク検出
- Authors: H M Mohaimanul Islam, Huynh Q. N. Vo, Aditya Rane,
- Abstract要約: TrustDefenderは、リアルタイム拡張現実(XR)ストリームでディープフェイク画像を検出するフレームワークである。
私たちの研究は、没入的でプライバシーに敏感なアプリケーションにおいて、信頼できるAIの基礎を確立します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the era of synthetic media, deepfake manipulations pose a significant threat to information integrity. To address this challenge, we propose TrustDefender, a two-stage framework comprising (i) a lightweight convolutional neural network (CNN) that detects deepfake imagery in real-time extended reality (XR) streams, and (ii) an integrated succinct zero-knowledge proof (ZKP) protocol that validates detection results without disclosing raw user data. Our design addresses both the computational constraints of XR platforms while adhering to the stringent privacy requirements in sensitive settings. Experimental evaluations on multiple benchmark deepfake datasets demonstrate that TrustDefender achieves 95.3% detection accuracy, coupled with efficient proof generation underpinned by rigorous cryptography, ensuring seamless integration with high-performance artificial intelligence (AI) systems. By fusing advanced computer vision models with provable security mechanisms, our work establishes a foundation for reliable AI in immersive and privacy-sensitive applications.
- Abstract(参考訳): 合成メディアの時代、ディープフェイク操作は情報の完全性に重大な脅威をもたらす。
この課題に対処するため、我々はTrustDefenderという2段階のフレームワークを提案する。
(i)リアルタイム拡張現実(XR)ストリームにおけるディープフェイク画像を検出する軽量畳み込みニューラルネットワーク(CNN)
(II) 生のユーザデータを開示することなく検出結果の検証を行うZKPプロトコル。
我々の設計は、機密性の高い設定における厳密なプライバシー要件に固執しながら、XRプラットフォームの計算上の制約に対処する。
複数のベンチマークディープフェイクデータセットに対する実験的評価は、TrustDefenderが95.3%の精度で検出し、厳密な暗号に支えられた効率的な証明生成と組み合わせ、高性能人工知能(AI)システムとのシームレスな統合を保証することを示した。
我々の研究は、高度なコンピュータビジョンモデルを証明可能なセキュリティメカニズムで融合させることで、没入的でプライバシーに敏感なアプリケーションにおける信頼性の高いAIの基礎を確立します。
関連論文リスト
- DICOM De-Identification via Hybrid AI and Rule-Based Framework for Scalable, Uncertainty-Aware Redaction [0.0]
本稿では,ルールベースとAI駆動技術を組み合わせたハイブリッド・デアイデンティティ・フレームワークを提案する。
我々のソリューションは、医療データの特定における重要な課題に対処し、研究のための画像データのセキュアで倫理的で信頼できるリリースを支援します。
論文 参考訳(メタデータ) (2025-07-31T17:19:38Z) - Robust Deepfake Detection for Electronic Know Your Customer Systems Using Registered Images [29.349824933680956]
本稿では,eKYC(Electronic Know Your Customer)システム用に設計されたディープフェイク検出アルゴリズムを提案する。
顔認識モデルにより抽出された識別ベクトルの時間的不整合を検出することにより,映像の真正性を評価する。
このアルゴリズムは、ビデオ入力の処理に加えて、登録された画像(真であると仮定される)を使ってアイデンティティの相違を計算する。
論文 参考訳(メタデータ) (2025-07-30T12:16:27Z) - Unmasking Synthetic Realities in Generative AI: A Comprehensive Review of Adversarially Robust Deepfake Detection Systems [4.359154048799454]
ディープフェイク拡散合成メディアは、デジタルセキュリティ、誤情報緩和、アイデンティティ保護に挑戦する。
本研究の体系的レビューでは, 再現性のある実装の透明性と検証を重視した, 最先端のディープフェイク検出手法の評価を行う。
1) 統計的異常や階層的特徴抽出を利用した完全合成メディアの検出,(2) 視覚的アーティファクトや時間的不整合といったマルチモーダルな手がかりを用いた実コンテンツ中の操作された領域の局在化。
論文 参考訳(メタデータ) (2025-07-24T22:05:52Z) - Enhancing Deepfake Detection using SE Block Attention with CNN [5.7494612007431805]
本稿では,Deepfake検出のための圧縮・励起ブロックアテンション(SE)を備えた軽量畳み込みニューラルネットワーク(CNN)を提案する。
このモデルは全体の分類精度94.14%、AUC-ROCスコア0.985をStyle GANデータセットで達成した。
提案手法は,最小限の計算資源でDeepfakeチャレンジと戦うための有望な道を示す。
論文 参考訳(メタデータ) (2025-06-12T13:29:26Z) - RAID: A Dataset for Testing the Adversarial Robustness of AI-Generated Image Detectors [57.81012948133832]
本稿では,72kの多種多様かつ高い変換可能な対向例からなるRAID(Robust Evaluation of AI- generated Image Detectors)を提案する。
提案手法は,未知の検出器に高い成功率で転送する逆画像を生成する。
以上の結果から,現在最先端のAI生成画像検出器は,敵の例によって容易に認識できることが示唆された。
論文 参考訳(メタデータ) (2025-06-04T14:16:00Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - Evaluating Single Event Upsets in Deep Neural Networks for Semantic Segmentation: an embedded system perspective [1.474723404975345]
本稿では,組み込みディープニューラルネットワーク(DNN)のロバスト性評価について述べる。
本研究は,様々なエンコーダデコーダモデルの層間およびビット間感度をソフトエラーに精査することにより,セグメント化DNNのSEUに対する脆弱性を徹底的に調査する。
本稿では,資源制約によるデプロイメントに適したメモリや計算コストを伴わない,実用的な軽量なエラー軽減手法を提案する。
論文 参考訳(メタデータ) (2024-12-04T18:28:38Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Deepfake Sentry: Harnessing Ensemble Intelligence for Resilient Detection and Generalisation [0.8796261172196743]
本稿では,持続的かつ積極的なディープフェイクトレーニング強化ソリューションを提案する。
我々は、ディープフェイクジェネレータモデルによって導入されたアーティファクトの効果を模倣するオートエンコーダのプールを採用する。
実験の結果,提案するアンサンブル・オートエンコーダに基づくデータ拡張学習手法が一般化の点で改善されていることがわかった。
論文 参考訳(メタデータ) (2024-03-29T19:09:08Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。