論文の概要: Privacy-Preserving Video Classification with Convolutional Neural
Networks
- arxiv url: http://arxiv.org/abs/2102.03513v1
- Date: Sat, 6 Feb 2021 05:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:49:15.518726
- Title: Privacy-Preserving Video Classification with Convolutional Neural
Networks
- Title(参考訳): 畳み込みニューラルネットワークによるプライバシー保護ビデオ分類
- Authors: Sikha Pentyala and Rafael Dowsley and Martine De Cock
- Abstract要約: 本稿では,畳み込みニューラルネットワークを用いた単一フレーム方式のビデオ分類のプライバシ保護実装を提案する。
個人の感情認識への応用として提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 8.51142156817993
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many video classification applications require access to personal data,
thereby posing an invasive security risk to the users' privacy. We propose a
privacy-preserving implementation of single-frame method based video
classification with convolutional neural networks that allows a party to infer
a label from a video without necessitating the video owner to disclose their
video to other entities in an unencrypted manner. Similarly, our approach
removes the requirement of the classifier owner from revealing their model
parameters to outside entities in plaintext. To this end, we combine existing
Secure Multi-Party Computation (MPC) protocols for private image classification
with our novel MPC protocols for oblivious single-frame selection and secure
label aggregation across frames. The result is an end-to-end privacy-preserving
video classification pipeline. We evaluate our proposed solution in an
application for private human emotion recognition. Our results across a variety
of security settings, spanning honest and dishonest majority configurations of
the computing parties, and for both passive and active adversaries, demonstrate
that videos can be classified with state-of-the-art accuracy, and without
leaking sensitive user information.
- Abstract(参考訳): 多くのビデオ分類アプリケーションは個人データへのアクセスを必要とし、ユーザーのプライバシーに侵入的なセキュリティリスクをもたらす。
コンボリューショナルニューラルネットワークを用いた単一フレーム方式によるビデオ分類のプライバシ保護実装を提案する。これにより、ビデオ所有者が暗号化されていない方法で他のエンティティにビデオを公開することなく、ビデオからラベルを推測することができる。
同様に、我々の手法は、分類器の所有者がモデルパラメータをプレーンテキストで外部エンティティに公開することを避ける。
この目的のために,既存のセキュア・マルチパーティ・コンピュテーション (mpc) プロトコルのプライベート・イメージ分類と,新たなmpcプロトコルを組み合わせることで,フレーム間のラベルアグリゲーションを実現する。
その結果は、エンドツーエンドのプライバシー保護ビデオ分類パイプラインになる。
個人の感情認識のためのアプリケーションで提案されたソリューションを評価します。
我々の結果は、コンピュータ関係者の正直で不正直な多数構成、そして受動的かつ活発な敵に対して、ビデオが最先端の精度で分類され、機密性の高いユーザー情報を漏洩することなく、様々なセキュリティ設定にまたがる。
関連論文リスト
- PV-VTT: A Privacy-Centric Dataset for Mission-Specific Anomaly Detection and Natural Language Interpretation [5.0923114224599555]
プライバシー侵害の特定を目的とした,ユニークなマルチモーダルデータセットであるPV-VTT(Privacy Violation Video To Text)を提案する。
PV-VTTは、シナリオ内のビデオとテキストの両方に詳細なアノテーションを提供する。
このプライバシー重視のアプローチにより、研究者はこのデータセットを、保護された機密性を保護しながら使用することができる。
論文 参考訳(メタデータ) (2024-10-30T01:02:20Z) - CausalVE: Face Video Privacy Encryption via Causal Video Prediction [13.577971999457164]
ビデオやライブストリーミングのWebサイトの普及に伴い、公開対面のビデオ配信とインタラクションは、プライバシー上のリスクを増大させる。
これらの欠点に対処するニューラルネットワークフレームワークCausalVEを提案する。
我々のフレームワークは、公開ビデオの拡散において優れたセキュリティを有し、定性的、量的、視覚的な観点から最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-09-28T10:34:22Z) - PPVF: An Efficient Privacy-Preserving Online Video Fetching Framework with Correlated Differential Privacy [24.407782529925615]
高品質なオンラインビデオサービスを維持しつつ、ユーザの要求のプライバシを維持するための新しいプライバシ保存ビデオフェッチフレームワークを提案する。
信頼されたエッジデバイスを使用して、ビデオのプレフェッチとキャッシュを行い、エッジキャッシュの効率を最適化しながら、ユーザの要求のプライバシを確保する。
その結果,PPVFは高いビデオキャッシング性能を維持しつつ,ユーザの要求するプライバシを効果的に保護することを示した。
論文 参考訳(メタデータ) (2024-08-27T02:03:36Z) - NeR-VCP: A Video Content Protection Method Based on Implicit Neural Representation [7.726354287366925]
暗黙的ニューラル表現に基づくビデオコンテンツ保護のための自動暗号化手法を提案する。
NeR-VCPはまず、送信者によって訓練されたキー制御可能なモジュールを受信者に事前配布する。
我々は,視覚的表現,不正ユーザに対する非受容性,暗号的観点からのセキュリティにおいて,優れた性能を有することを実験的に見出した。
論文 参考訳(メタデータ) (2024-08-20T16:23:51Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Differentially Private Video Activity Recognition [79.36113764129092]
ビデオレベルの差分プライバシーをクリップベース分類モデルにより強化する新しいフレームワークであるMulti-Clip DP-SGDを提案する。
提案手法は,UDF-101上でのエプシロン=5のプライバシー予算で81%の精度を達成し,DP-SGDの直接適用に比べて76%改善した。
論文 参考訳(メタデータ) (2023-06-27T18:47:09Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。