論文の概要: Pantomime: Towards the Anonymization of Motion Data using Foundation Motion Models
- arxiv url: http://arxiv.org/abs/2501.07149v1
- Date: Mon, 13 Jan 2025 09:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:20:12.974709
- Title: Pantomime: Towards the Anonymization of Motion Data using Foundation Motion Models
- Title(参考訳): パントマイム:基礎運動モデルを用いた運動データの匿名化に向けて
- Authors: Simon Hanisch, Julian Todt, Thorsten Strufe,
- Abstract要約: 動きデータに対する全体匿名化手法であるパントマイムを提案する。
パントマイムは、識別精度を10%に抑えながら、運動列の自然性を維持することができる。
- 参考スコア(独自算出の注目度): 3.18294468240512
- License:
- Abstract: Human motion is a behavioral biometric trait that can be used to identify individuals and infer private attributes such as medical conditions. This poses a serious privacy threat as motion extraction from video and motion capture are increasingly used for a variety of applications, including mixed reality, robotics, medicine, and the quantified self. In order to protect the privacy of the tracked individuals, anonymization techniques that preserve the utility of the data are required. However, anonymizing motion data is a challenging task because there are many dependencies in motion sequences (such as physiological constraints) that, if ignored, make the anonymized motion sequence appear unnatural. In this paper, we propose Pantomime, a full-body anonymization technique for motion data, which uses foundation motion models to generate motion sequences that adhere to the dependencies in the data, thus keeping the utility of the anonymized data high. Our results show that Pantomime can maintain the naturalness of the motion sequences while reducing the identification accuracy to 10%.
- Abstract(参考訳): 人間の動きは、個人を特定し、医療状況などの個人的な属性を推測するのに使用できる行動的生体特性である。
これは、ビデオとモーションキャプチャーからのモーション抽出が、混合現実、ロボティクス、医療、定量化された自己など、さまざまな用途にますます使われているため、深刻なプライバシー上の脅威となる。
追跡された個人のプライバシーを保護するためには、データの実用性を維持する匿名化技術が必要である。
しかし、運動データの匿名化は、運動列(生理学的制約など)に多くの依存があるため、無視された場合、匿名化された動き列が不自然なように見えるため、難しい作業である。
本稿では,動作データに対する全体匿名化手法であるPantomimeを提案する。この手法は,基本動作モデルを用いて,データの依存関係に従属する動作シーケンスを生成し,匿名化データの有効性を高く維持する。
その結果,パントマイムは動作列の自然性を維持しつつ,識別精度を10%に抑えることができた。
関連論文リスト
- Effect of Data Degradation on Motion Re-Identification [16.062009131216467]
本研究では,信号劣化が識別性に及ぼす影響について検討し,特に付加雑音,フレームレートの低減,精度の低下,データの次元性の低下について検討した。
実験により,これらの劣化に対して,最先端の識別攻撃は依然としてほぼ完全であることがわかった。
論文 参考訳(メタデータ) (2024-07-25T20:23:32Z) - Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Understanding person identification via gait [6.296016847062051]
運動データのさまざまな側面を研究し、歩行認識プロセスへの寄与を定量化する。
その結果,データの冗長性と相互依存性が高いため,歩行匿名化は困難なプロセスであることがわかった。
論文 参考訳(メタデータ) (2022-03-08T16:09:54Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - CIAGAN: Conditional Identity Anonymization Generative Adversarial
Networks [12.20367903755194]
CIAGANは条件付き生成対向ネットワークに基づく画像およびビデオの匿名化モデルである。
このモデルでは,高品質な画像や映像を制作しながら,顔や身体の特徴を識別できる。
論文 参考訳(メタデータ) (2020-05-19T15:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。