論文の概要: Personal Privacy Protection via Irrelevant Faces Tracking and Pixelation
in Video Live Streaming
- arxiv url: http://arxiv.org/abs/2101.01060v2
- Date: Tue, 5 Jan 2021 14:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 04:15:20.064045
- Title: Personal Privacy Protection via Irrelevant Faces Tracking and Pixelation
in Video Live Streaming
- Title(参考訳): ビデオライブストリーミングにおける無関係顔追跡とピクセル化による個人プライバシー保護
- Authors: Jizhe Zhou, Chi-Man Pun
- Abstract要約: 我々は、ビデオライブストリーミングにおいて、自動プライバシーフィルタリングを生成するためのFace Pixelationと呼ばれる新しい方法を開発した。
無関係な人々の顔の高速かつ正確なピクセル化のために、FPVLSは2つのコアステージのフレームツービデオ構造で構成されています。
収集したビデオライブストリーミングデータセットにおいて、FPVLSは満足度の高い精度、リアルタイム効率を取得し、オーバーピクセル問題を含む。
- 参考スコア(独自算出の注目度): 61.145467627057194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To date, the privacy-protection intended pixelation tasks are still
labor-intensive and yet to be studied. With the prevailing of video live
streaming, establishing an online face pixelation mechanism during streaming is
an urgency. In this paper, we develop a new method called Face Pixelation in
Video Live Streaming (FPVLS) to generate automatic personal privacy filtering
during unconstrained streaming activities. Simply applying multi-face trackers
will encounter problems in target drifting, computing efficiency, and
over-pixelation. Therefore, for fast and accurate pixelation of irrelevant
people's faces, FPVLS is organized in a frame-to-video structure of two core
stages. On individual frames, FPVLS utilizes image-based face detection and
embedding networks to yield face vectors. In the raw trajectories generation
stage, the proposed Positioned Incremental Affinity Propagation (PIAP)
clustering algorithm leverages face vectors and positioned information to
quickly associate the same person's faces across frames. Such frame-wise
accumulated raw trajectories are likely to be intermittent and unreliable on
video level. Hence, we further introduce the trajectory refinement stage that
merges a proposal network with the two-sample test based on the Empirical
Likelihood Ratio (ELR) statistic to refine the raw trajectories. A Gaussian
filter is laid on the refined trajectories for final pixelation. On the video
live streaming dataset we collected, FPVLS obtains satisfying accuracy,
real-time efficiency, and contains the over-pixelation problems.
- Abstract(参考訳): 現在まで、プライバシー保護が意図するピクセル化タスクは労働集約的であり、まだ研究されていない。
ビデオのライブストリーミングが普及すると、ストリーミング中にオンラインの顔のピクセル化機構を確立するのは緊急だ。
本稿では,FPVLS (Face Pixelation in Video Live Streaming) と呼ばれる新しい手法を開発し,制約のないストリーミング中に自動的に個人プライバシーフィルタを生成する。
単にマルチフェイストラッカーを適用するだけで、ターゲットドリフト、計算効率、ピクセルオーバーといった問題が発生します。
したがって、無関係な人の顔の高速かつ正確なピクセル化のために、FPVLSは2つのコアステージのフレーム・ツー・ビデオ構造で構成される。
個々のフレーム上では、FPVLSは画像ベースの顔検出と埋め込みネットワークを使用して顔ベクトルを生成する。
生軌跡生成段階において,提案する位置決め親和性伝播(piap)クラスタリングアルゴリズムは,顔ベクトルと位置決め情報を利用して,同一人物の顔をフレーム間で迅速に関連付ける。
このようなフレーム単位で蓄積された生の軌道は、間欠的であり、ビデオレベルでは信頼できない。
そこで本研究では,提案ネットワークと2つのサンプルテストとを融合した軌道修正段階を,経験的確率比(elr)統計に基づいて紹介する。
最終画素に対して精製された軌跡上にガウスフィルタを配置する。
収集したビデオライブストリーミングデータセットにおいて、FPVLSは満足度の高い精度、リアルタイム効率を取得し、オーバーピクセル問題を含む。
関連論文リスト
- STAC: Leveraging Spatio-Temporal Data Associations For Efficient
Cross-Camera Streaming and Analytics [0.0]
本稿では,制約されたネットワーク環境下でのリアルタイム解析と推論を実現する,効率的なクロスカメラ監視システムを提案する。
ストリーム特性に対するフレームフィルタリングと最先端圧縮をSTACと統合する。
本研究では,このデータセットを用いてSTAの性能評価を行い,完全性評価のための精度指標と推論率を測定した。
論文 参考訳(メタデータ) (2024-01-27T04:02:52Z) - Aggregating Long-term Sharp Features via Hybrid Transformers for Video
Deblurring [76.54162653678871]
本稿では,特徴集約のためのハイブリッドトランスフォーマーを用いて,隣接するフレームとシャープフレームの両方を活用するビデオデブロアリング手法を提案する。
提案手法は,定量的な計測値と視覚的品質の観点から,最先端のビデオデブロアリング法,およびイベント駆動ビデオデブロアリング法より優れる。
論文 参考訳(メタデータ) (2023-09-13T16:12:11Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Efficient Video Deblurring Guided by Motion Magnitude [37.25713728458234]
本稿では,MMP(Motion magnitude prior)を高効率なディープビデオデブロアリングのためのガイダンスとして利用する新しいフレームワークを提案する。
MMPは、空間的および時間的ボケレベル情報の両方で構成されており、ビデオデブロアリングのための効率的なリカレントニューラルネットワーク(RNN)にさらに統合することができる。
論文 参考訳(メタデータ) (2022-07-27T08:57:48Z) - Spatio-Temporal Deformable Attention Network for Video Deblurring [21.514099863308676]
ビデオデブロアリング法の重要な成功要因は、隣接するビデオフレームのシャープピクセルと中フレームのぼやけたピクセルを補償することである。
ビデオフレームの画素単位のぼかしレベルを考慮し,シャープな画素情報を抽出するSTDANetを提案する。
論文 参考訳(メタデータ) (2022-07-22T03:03:08Z) - Motion-blurred Video Interpolation and Extrapolation [72.3254384191509]
本稿では,映像から鮮明なフレームをエンドツーエンドに切り離し,補間し,外挿する新しい枠組みを提案する。
予測フレーム間の時間的コヒーレンスを確保し,潜在的な時間的あいまいさに対処するために,単純で効果的なフローベースルールを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:18:25Z) - Privacy-sensitive Objects Pixelation for Live Video Streaming [52.83247667841588]
ライブビデオストリーミング中に自動的にパーソナルプライバシフィルタリングを行うための新しいPrivacy-sensitive Objects Pixelation(PsOP)フレームワークを提案する。
psopは、あらゆるプライバシーに敏感なオブジェクトのピクセル化に拡張可能です。
ストリーミング映像データを用いた実験では, ピクセル化精度の向上に加えて, プライバシーに敏感な物体のピクセル化において, PsOP が過剰なピクセル化比を大幅に削減できることが示された。
論文 参考訳(メタデータ) (2021-01-03T11:07:23Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。