論文の概要: Privacy-Preserving Feature Coding for Machines
- arxiv url: http://arxiv.org/abs/2210.00727v1
- Date: Mon, 3 Oct 2022 06:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:04:00.542542
- Title: Privacy-Preserving Feature Coding for Machines
- Title(参考訳): マシンのプライバシ保護機能符号化
- Authors: Bardia Azizian and Ivan V. Baji\'c
- Abstract要約: 自動化されたマシンビジョンパイプラインは、タスクを実行するために正確なビジュアルコンテンツを必要としない。
本稿では,画像のプライバシを保存する潜在表現を作成するための新しい手法を提案する。
- 参考スコア(独自算出の注目度): 32.057586389777185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated machine vision pipelines do not need the exact visual content to
perform their tasks. Therefore, there is a potential to remove private
information from the data without significantly affecting the machine vision
accuracy. We present a novel method to create a privacy-preserving latent
representation of an image that could be used by a downstream machine vision
model. This latent representation is constructed using adversarial training to
prevent accurate reconstruction of the input while preserving the task
accuracy. Specifically, we split a Deep Neural Network (DNN) model and insert
an autoencoder whose purpose is to both reduce the dimensionality as well as
remove information relevant to input reconstruction while minimizing the impact
on task accuracy. Our results show that input reconstruction ability can be
reduced by about 0.8 dB at the equivalent task accuracy, with degradation
concentrated near the edges, which is important for privacy. At the same time,
30% bit savings are achieved compared to coding the features directly.
- Abstract(参考訳): 自動化されたマシンビジョンパイプラインは、タスクを実行するために正確なビジュアルコンテンツを必要としない。
したがって、マシンビジョンの精度に大きな影響を及ぼすことなく、データからプライベート情報を除去する可能性がある。
本稿では,下流マシンビジョンモデルで使用可能な画像のプライバシ保存型潜在表現を作成するための新しい手法を提案する。
この潜在表現は、タスク精度を維持しながら入力の正確な再構築を防止するために、逆訓練を用いて構築される。
具体的には、Deep Neural Network(DNN)モデルを分割し、次元の低減と入力再構成に関する情報の削除を目的としたオートエンコーダを挿入し、タスク精度への影響を最小限に抑える。
以上の結果から,入力再構成能力は約0.8dBに低下し,エッジ付近で劣化が集中していることが明らかとなった。
同時に、機能の直接コーディングと比較して30%のビット節約を達成している。
関連論文リスト
- You Can Use But Cannot Recognize: Preserving Visual Privacy in Deep Neural Networks [29.03438707988713]
既存のプライバシー保護技術では、そのようなデータを効率的に保護することはできない。
プライバシー保護のための新しいフレームワーク VisualMixer を提案する。
VisualMixerは、ノイズを注入することなく、空間領域と色チャネル空間のピクセルをシャッフルする。
実世界のデータセットの実験では、VisualMixerは無視できる精度の損失で視覚的プライバシを効果的に保存できることを示した。
論文 参考訳(メタデータ) (2024-04-05T13:49:27Z) - Impact of Disentanglement on Pruning Neural Networks [16.077795265753917]
変分オートエンコーダ(VAE)ネットワークが生成する乱数表現は,モデル圧縮を実現する上で有望な手法である。
本研究では,Beta-VAEフレームワークと標準的なプルーニング基準を組み合わせることで,ネットワークが絡み合った表現を学習することを強制する影響を調査する。
論文 参考訳(メタデータ) (2023-07-19T13:58:01Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - MAPLE: Masked Pseudo-Labeling autoEncoder for Semi-supervised Point
Cloud Action Recognition [160.49403075559158]
本稿では,Pseudo-Labeling autoEncoder (textbfMAPLE) フレームワークを提案する。
特に、MAPLEのバックボーンとして、新規で効率的なtextbfDecoupled textbfspatial-textbftemporal TranstextbfFormer(textbfDestFormer)を設計する。
MAPLEは3つの公開ベンチマークにおいて優れた結果を得て、MSR-Action3の精度を8.08%向上させる。
論文 参考訳(メタデータ) (2022-09-01T12:32:40Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Self-Compression in Bayesian Neural Networks [0.9176056742068814]
ベイジアンフレームワークによるネットワーク圧縮に関する新たな知見を提案する。
ベイズニューラルネットワークがモデルパラメータの冗長性を自動的に検出し,自己圧縮を可能にすることを示す。
実験の結果,ネットワーク自体が特定したパラメータを削除することで,ネットワークアーキテクチャの圧縮に成功できることが示唆された。
論文 参考訳(メタデータ) (2021-11-10T21:19:40Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Circumventing Outliers of AutoAugment with Knowledge Distillation [102.25991455094832]
AutoAugmentは多くの視覚タスクの精度を向上させる強力なアルゴリズムである。
本論文は作業機構を深く掘り下げ,AutoAugmentがトレーニング画像から識別情報の一部を除去できることを明らかにする。
教師モデルの出力に言及した知識蒸留を用いて,ネットワークトレーニングの指導を行う。
論文 参考訳(メタデータ) (2020-03-25T11:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。