論文の概要: Human-imperceptible, Machine-recognizable Images
- arxiv url: http://arxiv.org/abs/2306.03679v1
- Date: Tue, 6 Jun 2023 13:41:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 15:14:32.818268
- Title: Human-imperceptible, Machine-recognizable Images
- Title(参考訳): 人間の知覚できない、機械認識可能な画像
- Authors: Fusheng Hao, Fengxiang He, Yikai Wang, Fuxiang Wu, Jing Zhang, Jun
Cheng, Dacheng Tao
- Abstract要約: より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
- 参考スコア(独自算出の注目度): 76.01951148048603
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Massive human-related data is collected to train neural networks for computer
vision tasks. A major conflict is exposed relating to software engineers
between better developing AI systems and distancing from the sensitive training
data. To reconcile this conflict, this paper proposes an efficient
privacy-preserving learning paradigm, where images are first encrypted to
become ``human-imperceptible, machine-recognizable'' via one of the two
encryption strategies: (1) random shuffling to a set of equally-sized patches
and (2) mixing-up sub-patches of the images. Then, minimal adaptations are made
to vision transformer to enable it to learn on the encrypted images for vision
tasks, including image classification and object detection. Extensive
experiments on ImageNet and COCO show that the proposed paradigm achieves
comparable accuracy with the competitive methods. Decrypting the encrypted
images requires solving an NP-hard jigsaw puzzle or an ill-posed inverse
problem, which is empirically shown intractable to be recovered by various
attackers, including the powerful vision transformer-based attacker. We thus
show that the proposed paradigm can ensure the encrypted images have become
human-imperceptible while preserving machine-recognizable information. The code
is available at \url{https://github.com/FushengHao/PrivacyPreservingML.}
- Abstract(参考訳): コンピュータービジョンタスクのためのニューラルネットワークをトレーニングするために、大量の人間関連データが収集される。
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
この矛盾を解消するために,本論文では,(1)等サイズのパッチの集合へのランダムシャッフルと(2)画像の混合部分パッチの2つの暗号戦略の1つを介して,画像が最初に「人間非知覚的,機械認識可能」に暗号化される,効率的なプライバシー保護学習パラダイムを提案する。
次に、視覚トランスフォーマーに最小限の適応を施し、画像分類や物体検出を含む視覚タスクの暗号化画像について学習できるようにする。
ImageNet と COCO の大規模な実験により,提案手法は競合手法と同等の精度を達成できることが示された。
暗号化された画像の復号にはNPハードのジグソーパズルや不適切な逆問題の解法が必要となる。
したがって,提案手法は,機械認識可能な情報を維持しつつ,暗号化画像が人間に受け入れられるようになることを保証できることを示す。
コードは \url{https://github.com/fushenghao/privacypreservingmlで入手できる。
}
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Attack GAN (AGAN ): A new Security Evaluation Tool for Perceptual Encryption [1.6385815610837167]
最先端(SOTA)ディープラーニングモデルのトレーニングには大量のデータが必要である。
知覚暗号化は、イメージを認識不能なフォーマットに変換して、トレーニングデータ内のセンシティブな視覚情報を保護する。
これは、モデルの精度を大幅に下げるコストが伴う。
Adversarial Visual Information Hiding (AVIH)は、人間の目には認識できない暗号化された画像を作成することによって、画像のプライバシを保護するために、この欠点を克服する。
論文 参考訳(メタデータ) (2024-07-09T06:03:32Z) - Recoverable Privacy-Preserving Image Classification through Noise-like
Adversarial Examples [26.026171363346975]
分類などのクラウドベースの画像関連サービスが重要になっている。
本研究では,新しいプライバシー保護画像分類手法を提案する。
暗号化された画像は、秘密鍵を使用して、高い忠実度(保存可能な)で元の形式に復号することができる。
論文 参考訳(メタデータ) (2023-10-19T13:01:58Z) - Generative Model-Based Attack on Learnable Image Encryption for
Privacy-Preserving Deep Learning [14.505867475659276]
本稿では,プライバシ保護深層学習のための学習可能な画像暗号化手法に対する,新たな生成モデルに基づく攻撃を提案する。
我々は、StyleGANベースモデルと潜伏拡散ベースモデルという、最先端の2つの生成モデルを使用している。
その結果,提案手法により再構成された画像は,通常の画像と知覚的に類似していることがわかった。
論文 参考訳(メタデータ) (2023-03-09T05:00:17Z) - EViT: Privacy-Preserving Image Retrieval via Encrypted Vision
Transformer in Cloud Computing [9.41257807502252]
本稿では,暗号化ビジョン変換器(EViT)という新しいパラダイムを提案する。
EViTは、画像のプライバシーを効果的に保護しつつ、大きなマージンによる検索精度において、現在のスキームよりも優れた暗号化と検索性能を実現する。
論文 参考訳(メタデータ) (2022-08-31T07:07:21Z) - Masked Autoencoders Are Scalable Vision Learners [60.97703494764904]
Masked Autoencoders (MAE) は、コンピュータビジョンのためのスケーラブルな自己教師型学習システムである。
我々は入力画像のランダムなパッチを隠蔽し、欠落したピクセルを再構成する。
これら2つの設計を結合することで,大規模モデルを効率的かつ効率的にトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2021-11-11T18:46:40Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - Adversarial Attacks on Binary Image Recognition Systems [78.78811131936622]
本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-22T14:57:42Z) - Key-Nets: Optical Transformation Convolutional Networks for Privacy
Preserving Vision Sensors [3.3517146652431378]
キーネットは、独自の視覚センサーと組み合わせた畳み込みネットワークである。
キーネットはヒル暗号を用いた同型暗号と同値であることを示す。
論文 参考訳(メタデータ) (2020-08-11T01:21:29Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。