論文の概要: Learning to Censor by Noisy Sampling
- arxiv url: http://arxiv.org/abs/2203.12192v1
- Date: Wed, 23 Mar 2022 04:50:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 06:01:06.724965
- Title: Learning to Censor by Noisy Sampling
- Title(参考訳): ノイズサンプリングによる検閲への学習
- Authors: Ayush Chopra, Abhinav Java, Abhishek Singh, Vivek Sharma, Ramesh
Raskar
- Abstract要約: この作業は、ポイントクラウドから学ぶ際の機密情報を保護する。
我々は、属性漏洩攻撃を軽減しつつ、認識タスクのためのユーティリティの保存に重点を置いている。
重要なモチベーションは、ポイントクラウド上の知覚タスクの局所的な正当性を活用して、優れたプライバシユーティリティトレードオフを提供することである。
- 参考スコア(独自算出の注目度): 17.06138741660826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Point clouds are an increasingly ubiquitous input modality and the raw signal
can be efficiently processed with recent progress in deep learning. This signal
may, often inadvertently, capture sensitive information that can leak semantic
and geometric properties of the scene which the data owner does not want to
share. The goal of this work is to protect sensitive information when learning
from point clouds; by censoring the sensitive information before the point
cloud is released for downstream tasks. Specifically, we focus on preserving
utility for perception tasks while mitigating attribute leakage attacks. The
key motivating insight is to leverage the localized saliency of perception
tasks on point clouds to provide good privacy-utility trade-offs. We realize
this through a mechanism called Censoring by Noisy Sampling (CBNS), which is
composed of two modules: i) Invariant Sampler: a differentiable point-cloud
sampler which learns to remove points invariant to utility and ii) Noisy
Distorter: which learns to distort sampled points to decouple the sensitive
information from utility, and mitigate privacy leakage. We validate the
effectiveness of CBNS through extensive comparisons with state-of-the-art
baselines and sensitivity analyses of key design choices. Results show that
CBNS achieves superior privacy-utility trade-offs on multiple datasets.
- Abstract(参考訳): 点雲はますますユビキタスな入力モダリティであり、生信号は近年のディープラーニングの進歩とともに効率的に処理できる。
このシグナルは、しばしば不注意に、データ所有者が共有したくないシーンの意味的および幾何学的特性を漏らす可能性のある機密情報をキャプチャする。
この作業の目的は、ポイントクラウドから学ぶ際に機密情報を保護することであり、ポイントクラウドがダウンストリームタスクのためにリリースされる前に機密情報を検閲することである。
具体的には,属性漏洩攻撃を緩和しながら,知覚タスクの実用性を維持することに焦点を当てた。
重要な動機は、ポイントクラウド上の知覚タスクの局所的な正当性を活用して、優れたプライバシユーティリティトレードオフを提供することである。
我々は2つのモジュールからなるcbns(censoring by noise sampling)と呼ばれるメカニズムによってこれを実現する。
i)不変サンプラー:有用性に不変な点を取り除くことを学ぶ微分可能なポイントクラウドサンプラー
二 ノイズディストータ サンプリングされた点を歪め、機密情報を実用性から切り離し、プライバシーの漏洩を緩和することを学ぶこと。
CBNSの有効性を,最先端のベースラインと比較し,鍵設計選択の感度分析により検証した。
その結果,CBNSは複数のデータセット上で優れたプライバシーユーティリティトレードオフを実現することがわかった。
関連論文リスト
- SurANet: Surrounding-Aware Network for Concealed Object Detection via Highly-Efficient Interactive Contrastive Learning Strategy [55.570183323356964]
本稿では,隠蔽物体検出のための新しいSurrounding-Aware Network,すなわちSurANetを提案する。
周辺特徴の差分融合を用いて特徴写像のセマンティクスを強化し,隠蔽対象の強調を行う。
次に、周囲の特徴写像を対照的に学習することで隠蔽対象を識別するために、周囲のコントラストロスを適用した。
論文 参考訳(メタデータ) (2024-10-09T13:02:50Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Enhancing Sampling Protocol for Robust Point Cloud Classification [7.6224558218559855]
実世界のデータは、現在のプロトコルにおける点雲の良性の仮定に反するセンサノイズなど、しばしば干渉に悩まされる。
1)キーポイント識別のためのダウンサンプリング,2)フレキシブルなサンプルサイズのためのリサンプリングの2つのコンポーネントからなるポイントクラウドサンプリングプロトコルであるポイントDRを提案する。
論文 参考訳(メタデータ) (2024-08-22T01:48:31Z) - PointCaM: Cut-and-Mix for Open-Set Point Cloud Learning [72.07350827773442]
我々は,新しいポイントカット・アンド・ミクス機構を用いて,オープンセットのクラウド学習を解決することを提案する。
トレーニング段階では,Unknown-Point Simulatorを用いてアウト・オブ・ディストリビューションデータをシミュレートする。
Unknown-Point Estimatorモジュールは、既知のデータを識別するために、ポイントクラウドの機能コンテキストを活用することを学ぶ。
論文 参考訳(メタデータ) (2022-12-05T03:53:51Z) - ALLSH: Active Learning Guided by Local Sensitivity and Hardness [98.61023158378407]
本稿では,局所感度と硬度認識獲得機能を備えたラベル付きサンプルの検索を提案する。
本手法は,様々な分類タスクにおいてよく用いられるアクティブラーニング戦略よりも一貫した利得が得られる。
論文 参考訳(メタデータ) (2022-05-10T15:39:11Z) - Decouple-and-Sample: Protecting sensitive information in task agnostic
data release [17.398889291769986]
sanitizerはセキュアでタスクに依存しないデータリリースのためのフレームワークである。
機密情報をプライベートに合成できれば、より優れたプライバシーとユーティリティのトレードオフが達成できることを示す。
論文 参考訳(メタデータ) (2022-03-17T19:15:33Z) - Explainability-Aware One Point Attack for Point Cloud Neural Networks [0.0]
本研究は2つの新たな攻撃手法である opa と cta を提案する。
入力インスタンスから1ポイントだけをシフトすることで、人気の高いクラウドネットワークを100%の成功率で騙すことができることを示す。
また,異なる点帰属分布が点クラウドネットワークの対角的ロバスト性に与える影響についても考察した。
論文 参考訳(メタデータ) (2021-10-08T14:29:02Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - DISCO: Dynamic and Invariant Sensitive Channel Obfuscation for deep
neural networks [19.307753802569156]
特徴空間における機密情報を選択的に難読化するための動的およびデータ駆動型プルーニングフィルタを学習するdisCOを提案する。
また,100万のセンシティブ表現を用いた評価ベンチマークデータセットをリリースし,新たな攻撃手法の厳格な探索を奨励する。
論文 参考訳(メタデータ) (2020-12-20T21:15:13Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。