論文の概要: Sanitizing Hidden Information with Diffusion Models
- arxiv url: http://arxiv.org/abs/2310.06951v2
- Date: Wed, 05 Feb 2025 19:03:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:29:13.662533
- Title: Sanitizing Hidden Information with Diffusion Models
- Title(参考訳): 拡散モデルによる隠れ情報の衛生化
- Authors: Preston K. Robinette, Daniel Moyer, Taylor T. Johnson,
- Abstract要約: CIFAR-10とImageNetデータセットから,画像から画像への普遍的・依存的なステガノグラフィーから隠れた情報を衛生・除去する新しい手法を提案する。
DM-SUDSは3つのベースラインをすべて上回り、画像MSEを50.44%、PSNRを12.69%、SSIMを11.49%、NCCを3.26%改善している。
- 参考スコア(独自算出の注目度): 4.443677138272269
- License:
- Abstract: Information hiding is the process of embedding data within another form of data, often to conceal its existence or prevent unauthorized access. This process is commonly used in various forms of secure communications (steganography) that can be used by bad actors to propagate malware, exfiltrate victim data, and discreetly communicate. Recent work has utilized deep neural networks to remove this hidden information in a defense mechanism known as sanitization. Previous deep learning works, however, are unable to scale efficiently beyond the MNIST dataset. In this work, we present a novel sanitization method called DM-SUDS that utilizes a diffusion model framework to sanitize/remove hidden information from image-into-image universal and dependent steganography from CIFAR-10 and ImageNet datasets. We evaluate DM-SUDS against three different baselines using MSE, PSNR, SSIM, and NCC metrics and provide further detailed analysis through an ablation study. DM-SUDS outperforms all three baselines and significantly improves image preservation MSE by 50.44%, PSNR by 12.69%, SSIM by 11.49%, and NCC by 3.26% compared to previous deep learning approaches. Additionally, we introduce a novel evaluation specification that considers the successful removal of hidden information (safety) as well as the resulting quality of the sanitized image (utility). We further demonstrate the versatility of this method with an application in an audio case study, demonstrating its broad applicability to additional domains.
- Abstract(参考訳): 情報隠蔽は、データを別の形式のデータに埋め込むプロセスであり、多くの場合、その存在を隠蔽したり、不正アクセスを防いだりする。
このプロセスは、悪質なアクターがマルウェアを伝播し、被害者データを流出させ、慎重に通信するために使用できる、様々な種類のセキュアな通信(ステガノグラフィー)で一般的に使用されている。
最近の研究は、ディープニューラルネットワークを利用して、この隠れた情報を、衛生として知られる防御メカニズムで除去している。
しかし、これまでのディープラーニングの作業は、MNISTデータセットを超えて効率的にスケールすることはできない。
本研究では,CIFAR-10 および ImageNet データセットから画像内画像の普遍的・依存的ステガノグラフィーから隠れた情報を衛生・除去するための拡散モデルフレームワークを用いた DM-SUDS と呼ばれる新しい衛生手法を提案する。
MSE, PSNR, SSIM, NCCの3つの基準値に対してDM-SUDSを評価し, アブレーションによる詳細な解析を行った。
DM-SUDSは3つのベースラインをすべて上回り、画像保存MSEを50.44%、PSNRを12.69%、SSIMを11.49%、NCCを3.26%改善している。
さらに,隠れ情報(安全)の除去を成功させるとともに,衛生画像(実用性)の品質を向上する新たな評価仕様を導入する。
音声ケーススタディにおいて,本手法の汎用性をさらに実証し,追加領域に適用可能であることを示す。
関連論文リスト
- Tackling domain generalization for out-of-distribution endoscopic imaging [1.6377635288143584]
我々は、画像のスタイル情報とコンテンツ情報の両方を利用して、堅牢で一般化可能な特徴表現を保存する。
提案手法は, ベースラインであるDeepLabv3+よりも13.7%向上し, 最新のSOTA(State-of-the-art)手法よりも8%改善した。
論文 参考訳(メタデータ) (2024-10-18T18:45:13Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - DiNO-Diffusion. Scaling Medical Diffusion via Self-Supervised Pre-Training [0.0]
Dino-Diffusionは潜在拡散モデル(LDM)の自己教師型手法である
アノテーションへの依存をなくすことで、私たちのトレーニングは、公開胸部X線データセットから868万以上の未ラベル画像を活用する。
小さなデータプールからでも意味的に多様な合成データセットを生成するために使用できる。
論文 参考訳(メタデータ) (2024-07-16T10:51:21Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - SUDS: Sanitizing Universal and Dependent Steganography [4.067706508297839]
ステガノグラフィー(英: Steganography)は、隠蔽通信に最もよく用いられる情報隠蔽の一種である。
現在の保護機構はステガナシスに依存しているが、これらのアプローチは事前の知識に依存している。
この研究は、普遍的および依存的ステガノグラフィーを衛生化できるSUDSと呼ばれる深層学習衛生技術に焦点を当てている。
論文 参考訳(メタデータ) (2023-09-23T19:39:44Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Application of Homomorphic Encryption in Medical Imaging [60.51436886110803]
医療画像の予測にHEを用いて,不正な二次的データの使用を防止できることを示す。
結節検出に3次元胸部CT-Scansを用いた実験を行った。
論文 参考訳(メタデータ) (2021-10-12T19:57:12Z) - Contrastive Learning with Continuous Proxy Meta-Data for 3D MRI
Classification [1.714108629548376]
我々は、y-Aware InfoNCE Losという新たな損失を導入することで、対照的な学習フレームワークにおいて、継続的なプロキシメタデータを活用することを提案する。
104ドルの健康脳MRIスキャンで事前訓練された3D CNNモデルは、3つの分類タスクに関連する特徴を抽出することができる。
微調整された場合、これらのタスクをスクラッチからトレーニングした3D CNNと、最先端の自己管理手法を上回ります。
論文 参考訳(メタデータ) (2021-06-16T14:17:04Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。