論文の概要: AnonySIGN: Novel Human Appearance Synthesis for Sign Language Video
Anonymisation
- arxiv url: http://arxiv.org/abs/2107.10685v1
- Date: Thu, 22 Jul 2021 13:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-23 12:52:57.796489
- Title: AnonySIGN: Novel Human Appearance Synthesis for Sign Language Video
Anonymisation
- Title(参考訳): AnonySIGN:手話ビデオ匿名化のための新しい人間の外観合成
- Authors: Ben Saunders, Necati Cihan Camgoz, Richard Bowden
- Abstract要約: 本稿では,手話ビデオの視覚的外観を匿名化するための自動手法として,手話ビデオ匿名化(SLVA)の課題を紹介する。
SLVAに取り組むために,手話データの視覚的匿名化のための新しいアプローチであるAnonySignを提案する。
- 参考スコア(独自算出の注目度): 37.679114155300084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visual anonymisation of sign language data is an essential task to
address privacy concerns raised by large-scale dataset collection. Previous
anonymisation techniques have either significantly affected sign comprehension
or required manual, labour-intensive work.
In this paper, we formally introduce the task of Sign Language Video
Anonymisation (SLVA) as an automatic method to anonymise the visual appearance
of a sign language video whilst retaining the meaning of the original sign
language sequence. To tackle SLVA, we propose AnonySign, a novel automatic
approach for visual anonymisation of sign language data. We first extract pose
information from the source video to remove the original signer appearance. We
next generate a photo-realistic sign language video of a novel appearance from
the pose sequence, using image-to-image translation methods in a conditional
variational autoencoder framework. An approximate posterior style distribution
is learnt, which can be sampled from to synthesise novel human appearances. In
addition, we propose a novel \textit{style loss} that ensures style consistency
in the anonymised sign language videos.
We evaluate AnonySign for the SLVA task with extensive quantitative and
qualitative experiments highlighting both realism and anonymity of our novel
human appearance synthesis. In addition, we formalise an anonymity perceptual
study as an evaluation criteria for the SLVA task and showcase that video
anonymisation using AnonySign retains the original sign language content.
- Abstract(参考訳): 手話データの視覚的匿名化は、大規模なデータセット収集によって引き起こされるプライバシー問題に対処するための重要なタスクである。
従来の匿名化技術は、手話理解に大きく影響したか、あるいは手作業、労働集約的な作業を必要とした。
本稿では,手話映像の視覚的外観を匿名化するための自動的手法として手話映像匿名化(slva)の課題を,手話映像の本来の意味を保ちながら正式に紹介する。
SLVAに取り組むために,手話データの視覚的匿名化のための新しいアプローチであるAnonySignを提案する。
まず、元のシグナの外観を除去するために、ソースビデオからポーズ情報を抽出する。
次に、条件付き可変オートエンコーダフレームワークにおける画像から画像への変換手法を用いて、ポーズシーケンスから新しい外観の写実的な手話ビデオを生成する。
近い後部スタイルの分布を学習し、新しい人間の外観を合成するためにサンプリングすることができる。
さらに,匿名化した手話ビデオにおけるスタイル一貫性を保証する,新しい \textit{style loss}を提案する。
SLVAタスクにおける AnonySign を定量的および定性的な実験により評価し,新しい人間の外見合成の現実性と匿名性を強調した。
さらに、SLVAタスクの評価基準として匿名知覚研究を定式化し、AnonySignを用いたビデオ匿名化が元の手話の内容を保持することを示す。
関連論文リスト
- Pose-Based Sign Language Appearance Transfer [5.839722619084469]
本稿では,手話の骨格ポーズにおいて,手話の内容を保持しながら手話の外観を伝達する手法を提案する。
このアプローチは、アイデンティティを難読化しながらポーズベースのレンダリングとサインステッチを改善する。
実験の結果,シグナ識別精度は低下するが,シグナ認識性能はわずかに低下することがわかった。
論文 参考訳(メタデータ) (2024-10-17T15:33:54Z) - Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - Sign Stitching: A Novel Approach to Sign Language Production [35.35777909051466]
本稿では,辞書の例を用いて,表現力のある手話列を生成することを提案する。
サインを効果的に縫合するための7段階のアプローチを提案する。
我々はSignGANモデルを利用して、出力をフォトリアリスティックシグナにマップする。
論文 参考訳(メタデータ) (2024-05-13T11:44:57Z) - DiffSLVA: Harnessing Diffusion Models for Sign Language Video
Anonymization [33.18321022815901]
テキスト誘導手話ビデオ匿名化のための新しい手法であるDiffSLVAを紹介する。
我々は,署名された言語で言語情報を伝達するために重要な,表情をキャプチャーする専用のモジュールを開発する。
この革新的な方法論は、初めて、現実世界のアプリケーションに使用できる言語ビデオの匿名化を可能にする。
論文 参考訳(メタデータ) (2023-11-27T18:26:19Z) - Automatic dense annotation of large-vocabulary sign language videos [85.61513254261523]
自動アノテーションの密度を大幅に高めるための,シンプルでスケーラブルなフレームワークを提案する。
これらのアノテーションは手話研究コミュニティをサポートするために公開されています。
論文 参考訳(メタデータ) (2022-08-04T17:55:09Z) - Everybody Sign Now: Translating Spoken Language to Photo Realistic Sign
Language Video [43.45785951443149]
難聴者コミュニティが真に理解できるように、手話自動生成システムは、写真リアリスティックなシグナーを生成する必要がある。
我々は、音声言語から直接写真リアリスティックな連続手話ビデオを生成する最初のSLPモデルSignGANを提案する。
次に、ポーズ条件付き人間の合成モデルを導入し、骨格ポーズシーケンスから写真リアルな手話ビデオを生成する。
論文 参考訳(メタデータ) (2020-11-19T14:31:06Z) - Watch, read and lookup: learning to spot signs from multiple supervisors [99.50956498009094]
孤立した手話のビデオが与えられた場合、我々のタスクは、連続的かつ協調的な手話ビデオで署名されたか、どこで署名されたかを特定することである。
我々は,(1)既存の粗末なラベル付き映像を見ること,(2)追加の弱スーパービジョンを提供する関連字幕を読むこと,(3)視覚手話辞書で単語を検索すること,の3つを用いて,利用可能な複数のタイプの監督手法を用いてモデルを訓練する。
これらの3つのタスクは、ノイズコントラスト推定と多重インスタンス学習の原則を用いて統合学習フレームワークに統合される。
論文 参考訳(メタデータ) (2020-10-08T14:12:56Z) - Transferring Cross-domain Knowledge for Video Sign Language Recognition [103.9216648495958]
単語レベルの手話認識(WSLR)は手話解釈の基本課題である。
ドメイン不変の視覚概念を学習し、サブタイトルのニュースサインの知識を伝達することでWSLRモデルを肥大化させる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-03-08T03:05:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。