論文の概要: RID-TWIN: An end-to-end pipeline for automatic face de-identification in videos
- arxiv url: http://arxiv.org/abs/2403.10058v1
- Date: Fri, 15 Mar 2024 06:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 18:19:27.882772
- Title: RID-TWIN: An end-to-end pipeline for automatic face de-identification in videos
- Title(参考訳): RID-TWIN:ビデオにおける顔の自動識別のためのエンドツーエンドパイプライン
- Authors: Anirban Mukherjee, Monjoy Narayan Choudhury, Dinesh Babu Jayagopi,
- Abstract要約: RID-Twinは、モーションからアイデンティティを分離して、ビデオの顔の自動識別を実行するパイプラインである。
本稿では,広く利用されているVoxCeleb2データセット上での方法論の性能を評価する。
- 参考スコア(独自算出の注目度): 2.7569134765233536
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Face de-identification in videos is a challenging task in the domain of computer vision, primarily used in privacy-preserving applications. Despite the considerable progress achieved through generative vision models, there remain multiple challenges in the latest approaches. They lack a comprehensive discussion and evaluation of aspects such as realism, temporal coherence, and preservation of non-identifiable features. In our work, we propose RID-Twin: a novel pipeline that leverages the state-of-the-art generative models, and decouples identity from motion to perform automatic face de-identification in videos. We investigate the task from a holistic point of view and discuss how our approach addresses the pertinent existing challenges in this domain. We evaluate the performance of our methodology on the widely employed VoxCeleb2 dataset, and also a custom dataset designed to accommodate the limitations of certain behavioral variations absent in the VoxCeleb2 dataset. We discuss the implications and advantages of our work and suggest directions for future research.
- Abstract(参考訳): ビデオにおける顔の特定は、主にプライバシー保護アプリケーションで使用されるコンピュータビジョンの領域において難しい課題である。
生成的視覚モデルによって達成されたかなりの進歩にもかかわらず、最新のアプローチにはいくつかの課題がある。
現実主義、時間的コヒーレンス、識別できない特徴の保存といった側面の包括的な議論と評価は欠如している。
本研究では,現在最先端の生成モデルを活用する新しいパイプラインであるRID-Twinを提案する。
この課題を総合的な視点から検討し、この領域における既存の課題に対して我々のアプローチがどのように対処するかを議論する。
我々は,VoxCeleb2データセットで広く使用されているVoxCeleb2データセットと,VoxCeleb2データセットに存在しない特定の行動変動の制限に対応するために設計されたカスタムデータセットの性能を評価する。
本研究の意義とメリットを論じ,今後の研究の方向性を提案する。
関連論文リスト
- Privacy-Preserving Video Anomaly Detection: A Survey [10.899433437231139]
Video Anomaly Detection (VAD)は、オープンスペースから収集された監視ビデオのパターンを自動的に分析し、物理的接触なしに損傷を引き起こす可能性のある異常事象を検出することを目的としている。
ビデオ伝送と使用における透明性の欠如は、プライバシーと倫理に関する一般の懸念を高め、VADの現実世界の応用を制限する。
近年,データ,特徴,システムなど,さまざまな観点から体系的な研究を行うことによって,VADのプライバシーに関する懸念に焦点が当てられている。
本稿は、P2VADの進歩を初めて体系的にレビューし、その範囲を定義し、直感的な分類法を提供する。
論文 参考訳(メタデータ) (2024-11-21T20:29:59Z) - Object-Centric Temporal Consistency via Conditional Autoregressive Inductive Biases [69.46487306858789]
Conditional Autoregressive Slot Attention (CA-SA) は、ビデオ中心の視覚タスクにおいて抽出されたオブジェクト中心の表現の時間的一貫性を高めるフレームワークである。
本稿では,提案手法が下流タスクのベースラインよりも優れていることを示す定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-10-21T07:44:44Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - Deepfake Generation and Detection: A Benchmark and Survey [134.19054491600832]
Deepfakeは、特定の条件下で非常にリアルな顔画像やビデオを作成するための技術だ。
この調査は、ディープフェイクの発生と検出の最新の展開を包括的にレビューする。
本研究では, 顔交換, 顔再現, 話し顔生成, 顔属性編集の4つの代表的なディープフェイク分野の研究に焦点をあてる。
論文 参考訳(メタデータ) (2024-03-26T17:12:34Z) - Attribute-preserving Face Dataset Anonymization via Latent Code
Optimization [64.4569739006591]
本稿では,事前学習したGANの潜時空間における画像の潜時表現を直接最適化するタスク非依存匿名化手法を提案する。
我々は一連の実験を通して、我々の手法が画像の同一性を匿名化できる一方で、顔の属性をより保存できることを実証した。
論文 参考訳(メタデータ) (2023-03-20T17:34:05Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - StyleID: Identity Disentanglement for Anonymizing Faces [4.048444203617942]
この論文の主な貢献は、フィーチャ保存の匿名化フレームワークであるStyleIDの設計である。
コントリビューションの一環として,新しいアンタングル化指標,補足的アンタングル化法,およびアイデンティティ・アンタングル化に関する新たな知見を提示する。
StyleIDはチューナブルなプライバシを提供し、計算の複雑さが低く、現在の最先端ソリューションを上回っている。
論文 参考訳(メタデータ) (2022-12-28T12:04:24Z) - Survey on the Analysis and Modeling of Visual Kinship: A Decade in the
Making [66.72253432908693]
親和性認識は多くの実践的応用において難しい問題である。
我々は、多くの人にその見解を刺激した公開リソースとデータ課題についてレビューする。
10周年記念には、さまざまなkinベースのタスクのためのデモコードが用意されている。
論文 参考訳(メタデータ) (2020-06-29T13:25:45Z) - CIAGAN: Conditional Identity Anonymization Generative Adversarial
Networks [12.20367903755194]
CIAGANは条件付き生成対向ネットワークに基づく画像およびビデオの匿名化モデルである。
このモデルでは,高品質な画像や映像を制作しながら,顔や身体の特徴を識別できる。
論文 参考訳(メタデータ) (2020-05-19T15:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。