論文の概要: Monsters in the Dark: Sanitizing Hidden Threats with Diffusion Models
- arxiv url: http://arxiv.org/abs/2310.06951v1
- Date: Tue, 10 Oct 2023 19:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 02:42:56.317200
- Title: Monsters in the Dark: Sanitizing Hidden Threats with Diffusion Models
- Title(参考訳): 暗黒のモンスター:拡散モデルで隠れた脅威を消毒する
- Authors: Preston K. Robinette, Daniel Moyer, Taylor T. Johnson,
- Abstract要約: ステガノグラフィー(英: Steganography)は、平凡な視界に情報を隠蔽する技法である。
現在の画像ステガノグラフィーの防御はステガナリシスや隠されたメッセージの検出に依存している。
最近の研究は、画像から隠された情報を除去する「衛生化」として知られる防衛機構に焦点を当てている。
- 参考スコア(独自算出の注目度): 4.443677138272269
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Steganography is the art of hiding information in plain sight. This form of covert communication can be used by bad actors to propagate malware, exfiltrate victim data, and communicate with other bad actors. Current image steganography defenses rely upon steganalysis, or the detection of hidden messages. These methods, however, are non-blind as they require information about known steganography techniques and are easily bypassed. Recent work has instead focused on a defense mechanism known as sanitization, which eliminates hidden information from images. In this work, we introduce a novel blind deep learning steganography sanitization method that utilizes a diffusion model framework to sanitize universal and dependent steganography (DM-SUDS), which both sanitizes and preserves image quality. We evaluate this approach against state-of-the-art deep learning sanitization frameworks and provide further detailed analysis through an ablation study. DM-SUDS outperforms previous sanitization methods and improves image preservation MSE by 71.32%, PSNR by 22.43% and SSIM by 17.30%. This is the first blind deep learning image sanitization framework to meet these image quality results.
- Abstract(参考訳): ステガノグラフィー(英: Steganography)は、平凡な視界に情報を隠蔽する技法である。
このタイプの隠蔽通信は、悪役によってマルウェアを伝播し、被害者データを流出させ、他の悪役と通信するために使用することができる。
現在の画像ステガノグラフィーの防御はステガナリシスや隠されたメッセージの検出に依存している。
しかし、これらの手法は、既知のステガノグラフィー技術に関する情報を必要としており、容易にバイパスできるため、盲目ではない。
最近の研究は、画像から隠された情報を除去する「衛生化」と呼ばれる防衛機構に焦点を当てている。
本研究では、拡散モデルフレームワークを用いて、画像品質を衛生・保存する普遍的・依存的ステガノグラフィー(DM-SUDS)を衛生化する新しいブラインドラーニング・ステガノグラフィー・サニタイズ手法を提案する。
我々は、最先端のディープラーニング衛生化フレームワークに対するこのアプローチを評価し、アブレーション研究を通じてさらに詳細な分析を行う。
DM-SUDSは以前の衛生方法より優れており、画像保存MSEは71.32%、PSNRは22.43%、SSIMは17.30%改善している。
これは、これらの画像品質結果を満たす最初の盲目的ディープラーニング画像衛生化フレームワークである。
関連論文リスト
- Tackling domain generalization for out-of-distribution endoscopic imaging [1.6377635288143584]
我々は、画像のスタイル情報とコンテンツ情報の両方を利用して、堅牢で一般化可能な特徴表現を保存する。
提案手法は, ベースラインであるDeepLabv3+よりも13.7%向上し, 最新のSOTA(State-of-the-art)手法よりも8%改善した。
論文 参考訳(メタデータ) (2024-10-18T18:45:13Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - DiNO-Diffusion. Scaling Medical Diffusion via Self-Supervised Pre-Training [0.0]
Dino-Diffusionは潜在拡散モデル(LDM)の自己教師型手法である
アノテーションへの依存をなくすことで、私たちのトレーニングは、公開胸部X線データセットから868万以上の未ラベル画像を活用する。
小さなデータプールからでも意味的に多様な合成データセットを生成するために使用できる。
論文 参考訳(メタデータ) (2024-07-16T10:51:21Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - SUDS: Sanitizing Universal and Dependent Steganography [4.067706508297839]
ステガノグラフィー(英: Steganography)は、隠蔽通信に最もよく用いられる情報隠蔽の一種である。
現在の保護機構はステガナシスに依存しているが、これらのアプローチは事前の知識に依存している。
この研究は、普遍的および依存的ステガノグラフィーを衛生化できるSUDSと呼ばれる深層学習衛生技術に焦点を当てている。
論文 参考訳(メタデータ) (2023-09-23T19:39:44Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Application of Homomorphic Encryption in Medical Imaging [60.51436886110803]
医療画像の予測にHEを用いて,不正な二次的データの使用を防止できることを示す。
結節検出に3次元胸部CT-Scansを用いた実験を行った。
論文 参考訳(メタデータ) (2021-10-12T19:57:12Z) - Contrastive Learning with Continuous Proxy Meta-Data for 3D MRI
Classification [1.714108629548376]
我々は、y-Aware InfoNCE Losという新たな損失を導入することで、対照的な学習フレームワークにおいて、継続的なプロキシメタデータを活用することを提案する。
104ドルの健康脳MRIスキャンで事前訓練された3D CNNモデルは、3つの分類タスクに関連する特徴を抽出することができる。
微調整された場合、これらのタスクをスクラッチからトレーニングした3D CNNと、最先端の自己管理手法を上回ります。
論文 参考訳(メタデータ) (2021-06-16T14:17:04Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。