論文の概要: Privacy-Preserving Video Classification with Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2102.03513v1
- Date: Sat, 6 Feb 2021 05:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:49:15.518726
- Title: Privacy-Preserving Video Classification with Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークによるプライバシー保護ビデオ分類
- Authors: Sikha Pentyala and Rafael Dowsley and Martine De Cock
- Abstract要約: 本稿では,畳み込みニューラルネットワークを用いた単一フレーム方式のビデオ分類のプライバシ保護実装を提案する。
個人の感情認識への応用として提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 8.51142156817993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many video classification applications require access to personal data,
thereby posing an invasive security risk to the users' privacy. We propose a
privacy-preserving implementation of single-frame method based video
classification with convolutional neural networks that allows a party to infer
a label from a video without necessitating the video owner to disclose their
video to other entities in an unencrypted manner. Similarly, our approach
removes the requirement of the classifier owner from revealing their model
parameters to outside entities in plaintext. To this end, we combine existing
Secure Multi-Party Computation (MPC) protocols for private image classification
with our novel MPC protocols for oblivious single-frame selection and secure
label aggregation across frames. The result is an end-to-end privacy-preserving
video classification pipeline. We evaluate our proposed solution in an
application for private human emotion recognition. Our results across a variety
of security settings, spanning honest and dishonest majority configurations of
the computing parties, and for both passive and active adversaries, demonstrate
that videos can be classified with state-of-the-art accuracy, and without
leaking sensitive user information.
- Abstract(参考訳): 多くのビデオ分類アプリケーションは個人データへのアクセスを必要とし、ユーザーのプライバシーに侵入的なセキュリティリスクをもたらす。
コンボリューショナルニューラルネットワークを用いた単一フレーム方式によるビデオ分類のプライバシ保護実装を提案する。これにより、ビデオ所有者が暗号化されていない方法で他のエンティティにビデオを公開することなく、ビデオからラベルを推測することができる。
同様に、我々の手法は、分類器の所有者がモデルパラメータをプレーンテキストで外部エンティティに公開することを避ける。
この目的のために,既存のセキュア・マルチパーティ・コンピュテーション (mpc) プロトコルのプライベート・イメージ分類と,新たなmpcプロトコルを組み合わせることで,フレーム間のラベルアグリゲーションを実現する。
その結果は、エンドツーエンドのプライバシー保護ビデオ分類パイプラインになる。
個人の感情認識のためのアプリケーションで提案されたソリューションを評価します。
我々の結果は、コンピュータ関係者の正直で不正直な多数構成、そして受動的かつ活発な敵に対して、ビデオが最先端の精度で分類され、機密性の高いユーザー情報を漏洩することなく、様々なセキュリティ設定にまたがる。
関連論文リスト
- Multimodal Group Emotion Recognition In-the-wild Using Privacy-Compliant
Features [0.0]
グループレベルの感情認識は、社会ロボティクス、会話エージェント、e-coaching、学習分析など、多くの分野で有用である。
本稿では,EmotiW Challenge 2023の中で,プライバシに適合したグループレベルの感情認識について検討する。
論文 参考訳(メタデータ) (2023-12-06T08:58:11Z) - Privacy Side Channels in Machine Learning Systems [82.85919161427604]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
機械学習ライフサイクル全体にわたるサイドチャネルの4つのカテゴリを提案する。
我々の結果は、全体的なエンドツーエンドのプライバシー分析の必要性を示しています。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - PRO-Face S: Privacy-preserving Reversible Obfuscation of Face Images via
Secure Flow [69.78820726573935]
保護フローベースモデルを用いて,プライバシ保護による顔画像の可逆難読化(Reversible Obfuscation of Face image)を略してpro-Face Sと命名する。
本フレームワークでは、Invertible Neural Network(INN)を使用して、入力画像と、その事前難読化されたフォームとを処理し、事前難読化された画像と視覚的に近似したプライバシー保護された画像を生成する。
論文 参考訳(メタデータ) (2023-07-18T10:55:54Z) - Differentially Private Video Activity Recognition [79.36113764129092]
ビデオレベルの差分プライバシーをクリップベース分類モデルにより強化する新しいフレームワークであるMulti-Clip DP-SGDを提案する。
提案手法は,UDF-101上でのエプシロン=5のプライバシー予算で81%の精度を達成し,DP-SGDの直接適用に比べて76%改善した。
論文 参考訳(メタデータ) (2023-06-27T18:47:09Z) - Privacy-Preserving Action Recognition via Motion Difference Quantization [22.31448780032675]
本稿では,BDQと呼ばれるシンプルかつ堅牢なプライバシ保護エンコーダを提案する。
ブラー、差分、量子化の3つのモジュールで構成されている。
3つのベンチマークデータセットの実験は、提案したエンコーダの設計が最先端のトレードオフを達成可能であることを示している。
論文 参考訳(メタデータ) (2022-08-04T05:03:27Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Robust Privacy-Preserving Motion Detection and Object Tracking in
Encrypted Streaming Video [39.453548972987015]
本稿では,暗号化された監視ビデオのビットストリームに対して,効率的かつ堅牢なプライバシー保護動作検出と複数物体追跡手法を提案する。
提案手法は, 暗号化・圧縮された領域における既存の作業と比較して, 最高の検出・追跡性能を実現する。
我々の手法は、カメラの動き/ジッタ、動的背景、影など、様々な課題を伴う複雑な監視シナリオで効果的に利用することができる。
論文 参考訳(メタデータ) (2021-08-30T11:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。