論文の概要: On the Design of Privacy-Aware Cameras: a Study on Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2208.11372v1
- Date: Wed, 24 Aug 2022 08:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:18:18.073223
- Title: On the Design of Privacy-Aware Cameras: a Study on Deep Neural Networks
- Title(参考訳): プライバシーに配慮したカメラの設計について:ディープニューラルネットワークに関する研究
- Authors: Marcela Carvalho, Oussama Ennaffi, Sylvain Chateau, Samy Ait Bachir
- Abstract要約: 本稿では, カメラの歪みがデータ保護に及ぼす影響について検討する。
ライセンスプレート番号などの個人情報を抽出できないプライバシ対応カメラを構築する。
同時に、歪み画像から有用な非感度データを抽出できることを保証します。
- 参考スコア(独自算出の注目度): 0.7646713951724011
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In spite of the legal advances in personal data protection, the issue of
private data being misused by unauthorized entities is still of utmost
importance. To prevent this, Privacy by Design is often proposed as a solution
for data protection. In this paper, the effect of camera distortions is studied
using Deep Learning techniques commonly used to extract sensitive data. To do
so, we simulate out-of-focus images corresponding to a realistic conventional
camera with fixed focal length, aperture, and focus, as well as grayscale
images coming from a monochrome camera. We then prove, through an experimental
study, that we can build a privacy-aware camera that cannot extract personal
information such as license plate numbers. At the same time, we ensure that
useful non-sensitive data can still be extracted from distorted images. Code is
available at https://github.com/upciti/privacy-by-design-semseg .
- Abstract(参考訳): 個人データ保護の法的進歩にもかかわらず、個人データが不正な団体によって誤用されるという問題は、いまだに極めて重要である。
これを防ぐため、プライバシ・バイ・デザインはデータ保護のソリューションとしてしばしば提案される。
本稿では,感性データ抽出によく用いられるDeep Learning技術を用いて,カメラ歪みの影響について検討する。
そこで本研究では,単色カメラからのグレースケール画像に加えて,焦点距離,開口,焦点を固定した実写的な従来型カメラに対応する焦点外像をシミュレートする。
そして、実験により、ライセンスプレート番号などの個人情報を抽出できないプライバシーに配慮したカメラを構築することができることを証明した。
同時に,歪んだ画像から有用な非センシティブなデータを抽出できることを確認した。
コードはhttps://github.com/upciti/privacy-by-design-semsegで入手できる。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - You Can Use But Cannot Recognize: Preserving Visual Privacy in Deep Neural Networks [29.03438707988713]
既存のプライバシー保護技術では、そのようなデータを効率的に保護することはできない。
プライバシー保護のための新しいフレームワーク VisualMixer を提案する。
VisualMixerは、ノイズを注入することなく、空間領域と色チャネル空間のピクセルをシャッフルする。
実世界のデータセットの実験では、VisualMixerは無視できる精度の損失で視覚的プライバシを効果的に保存できることを示した。
論文 参考訳(メタデータ) (2024-04-05T13:49:27Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Human-Imperceptible Identification with Learnable Lensless Imaging [12.571999330435801]
認識精度を維持しながら、視覚的プライバシを保護する学習可能なレンズレスイメージングフレームワークを提案する。
得られた画像が人間に知覚できないようにするために, 総変動, 可逆性, 制限された等尺性に基づいて, いくつかの損失関数を設計した。
論文 参考訳(メタデータ) (2023-02-04T22:58:46Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Selective manipulation of disentangled representations for privacy-aware
facial image processing [5.612561387428165]
センサデータがクラウドに送信される前に、プライバシーに敏感な属性を除去するエッジベースのフィルタリングステージを提案する。
我々は、アンタングル表現を利用した最先端の画像操作技術を用いて、プライバシーフィルタリングを実現している。
論文 参考訳(メタデータ) (2022-08-26T12:47:18Z) - Privacy Enhancement for Cloud-Based Few-Shot Learning [4.1579007112499315]
クラウドなど,信頼できない環境における数ショット学習のプライバシ向上について検討する。
本稿では,共同損失によるプライバシー保護表現を学習する手法を提案する。
実証的な結果は、プライバシが強化された数発の学習において、プライバシとパフォーマンスのトレードオフをどのように交渉できるかを示している。
論文 参考訳(メタデータ) (2022-05-10T18:48:13Z) - Deep Learning Approach Protecting Privacy in Camera-Based Critical
Applications [57.93313928219855]
カメラベースシステムにおけるプライバシー保護のためのディープラーニングアプローチを提案する。
我々の手法は、アプリケーションで必要とされない直感に基づいて、正当性(視覚的に顕著な)と非正則性(非正則性)を区別する。
論文 参考訳(メタデータ) (2021-10-04T19:16:27Z) - Anti-Neuron Watermarking: Protecting Personal Data Against Unauthorized
Neural Model Training [50.308254937851814]
個人データ(画像など)は、許可なくディープニューラルネットワークモデルをトレーニングするために不適切に利用することができる。
特殊な線形色変換を使用して透かしシグネチャをユーザイメージに埋め込むことで、ニューラルモデルはそのようなシグネチャでインプリントされる。
これは、ニューラルネットワークトレーニングにおいて、ユーザの個人情報を不正使用から保護する最初の作業である。
論文 参考訳(メタデータ) (2021-09-18T22:10:37Z) - Modeling Deep Learning Based Privacy Attacks on Physical Mail [89.3344470606211]
mail privacy protectionは、封筒内の隠れたコンテンツへの不正アクセスを防止することを目的としている。
高度に設計されたディープラーニングモデルでは、隠れたコンテンツは封筒を開けることなくほぼ復元できる。
論文 参考訳(メタデータ) (2020-12-22T02:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。