論文の概要: Is Visual Realism Enough? Evaluating Gait Biometric Fidelity in Generative AI Human Animation
- arxiv url: http://arxiv.org/abs/2512.19275v1
- Date: Mon, 22 Dec 2025 11:19:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.725163
- Title: Is Visual Realism Enough? Evaluating Gait Biometric Fidelity in Generative AI Human Animation
- Title(参考訳): ビジュアルリアリズムは十分か? 生成型AIアニメーションにおける歩行バイオメトリクスの忠実度の評価
- Authors: Ivan DeAndres-Tame, Chengwei Ye, Ruben Tolosana, Ruben Vera-Rodriguez, Shiqi Yu,
- Abstract要約: ジェネレーティブAI(GenAI)モデルはアニメーションに革命をもたらし、目立った視覚的忠実さを持つ人間と動きパターンの合成を可能にした。
しかし、真に現実的な人間のアニメーションを生成することは、たとえ小さな矛盾であっても、対象を不自然に見せることができる、恐ろしい課題である。
本研究では、現在最先端のGenAI人間アニメーションモデルが、歩行バイオメトリックスを通して人物識別に必要な微妙な動き・時間的詳細を保存できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 9.173014143769821
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI (GenAI) models have revolutionized animation, enabling the synthesis of humans and motion patterns with remarkable visual fidelity. However, generating truly realistic human animation remains a formidable challenge, where even minor inconsistencies can make a subject appear unnatural. This limitation is particularly critical when AI-generated videos are evaluated for behavioral biometrics, where subtle motion cues that define identity are easily lost or distorted. The present study investigates whether state-of-the-art GenAI human animation models can preserve the subtle spatio-temporal details needed for person identification through gait biometrics. Specifically, we evaluate four different GenAI models across two primary evaluation tasks to assess their ability to i) restore gait patterns from reference videos under varying conditions of complexity, and ii) transfer these gait patterns to different visual identities. Our results show that while visual quality is mostly high, biometric fidelity remains low in tasks focusing on identification, suggesting that current GenAI models struggle to disentangle identity from motion. Furthermore, through an identity transfer task, we expose a fundamental flaw in appearance-based gait recognition: when texture is disentangled from motion, identification collapses, proving current GenAI models rely on visual attributes rather than temporal dynamics.
- Abstract(参考訳): ジェネレーティブAI(GenAI)モデルはアニメーションに革命をもたらし、目立った視覚的忠実さを持つ人間と動きパターンの合成を可能にした。
しかし、真に現実的な人間のアニメーションを生成することは、たとえ小さな矛盾であっても、対象を不自然に見せることができる、恐ろしい課題である。
この制限は、AI生成ビデオが行動バイオメトリックスで評価されるときに特に重要であり、アイデンティティを定義する微妙な動きの手がかりが簡単に失われたり歪んだりする。
本研究では,現在最先端のGenAI人体アニメーションモデルが,歩行バイオメトリックスによる個人識別に必要な微妙な時空間的詳細を保存できるかどうかを検討する。
具体的には、2つの主要な評価課題にまたがる4つの異なるGenAIモデルを評価し、その能力を評価する。
一 複雑さの異なる条件下で、基準映像から歩行パターンを復元すること。
二 これらの歩行パターンを異なる視覚的アイデンティティに転送すること。
その結果、視覚的品質は高いが、識別に焦点を当てた作業では生体的忠実度が低いことが示され、現在のGenAIモデルは、動きからアイデンティティを遠ざけるのに苦労していることが示唆された。
テクスチャが動きから切り離された場合、識別が崩壊し、現在のGenAIモデルが時間的ダイナミクスよりも視覚的属性に依存していることを示す。
関連論文リスト
- From Generated Human Videos to Physically Plausible Robot Trajectories [103.28274349461607]
ビデオ生成モデルは、人間のアクションを新しい文脈で合成する能力が急速に向上している。
この可能性を実現するために、ヒューマノイドはどうやってゼロショットで生成されたビデオから人間の行動を実行することができるのか?
この課題は、生成されたビデオがしばしばうるさいので、実際のビデオと比べて直接の模倣を困難にする形態的歪みを示すためである。
我々は,3次元キーポイントに条件付き物理対応強化学習政策であるGenMimicを提案し,対称性の正則化とキーポイント重み付きトラッキング報酬を訓練した。
論文 参考訳(メタデータ) (2025-12-04T18:56:03Z) - GaitCrafter: Diffusion Model for Biometric Preserving Gait Synthesis [14.174192604480599]
GaitCrafterは、シルエット領域で現実的な歩行シーケンスを合成するための拡散ベースのフレームワークである。
我々のアプローチは、時間的に一貫性があり、アイデンティティを保存する歩行列の生成を可能にする。
そこで,本研究では,オリジナルデータセットに存在しない新規なアイデンティティ合成個人を生成するメカニズムを提案する。
論文 参考訳(メタデータ) (2025-08-18T18:32:42Z) - Adopting a human developmental visual diet yields robust, shape-based AI vision [0.0]
長年の研究にもかかわらず、人工知能(AI)システムと人間の視覚の重大な相違が続いている。
私たちは、人間の視覚が幼少期から成人期へどのように発達するかからインスピレーションを受けます。
我々は、この人間にインスパイアされたカリキュラムを通してAIシステムを導くことは、人間の行動と密接に一致したモデルを生み出すことを示す。
論文 参考訳(メタデータ) (2025-07-03T20:52:08Z) - Visual Graph Arena: Evaluating Visual Conceptualization of Vision and Multimodal Large Language Models [51.900488744931785]
視覚抽象化のためのAIシステムの能力を評価し改善するためのビジュアルグラフアリーナ(VGA)を導入する。
人間はタスク間でほぼ完璧な精度を達成し、モデルは同型検出で完全に失敗し、パス/サイクルタスクにおいて限られた成功を示した。
表現不変推論の課題を分離することにより、VGAは、AIビジュアルモデルにおける人間のような概念化に向けた前進を促進するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2025-06-06T17:06:25Z) - Generative Physical AI in Vision: A Survey [78.07014292304373]
遺伝子人工知能(AI)は、コンピュータビジョンの分野を急速に進歩させ、機械が前例のない高度なビジュアルデータを作成し、解釈できるようにする。
この変換は、現実的な画像、ビデオ、および3D/4Dコンテンツを生成するための生成モデルの基礎の上に構築されている。
生成モデルが進化して物理リアリズムと動的シミュレーションを統合するにつれ、「世界シミュレータ」として機能する可能性が拡大する。
論文 参考訳(メタデータ) (2025-01-19T03:19:47Z) - Do As I Do: Pose Guided Human Motion Copy [39.40271266234068]
モーションコピーは、人工知能とコンピュータビジョンにおいて興味深いが難しい課題だ。
既存のアプローチでは、通常、ターゲットのフェイクビデオを生成するために、L1またはL2損失の従来のGANを採用する。
連続学習を促進するために,ポーズ・ツー・アジュアンス生成におけるエピソード記憶モジュールを提案する。
提案手法は,PSNRとFIDをそれぞれ7.2%,12.4%改善した。
論文 参考訳(メタデータ) (2024-06-24T12:41:51Z) - Adversarial Identity Injection for Semantic Face Image Synthesis [6.763801424109435]
我々は、顔を生成するためにアイデンティティ、スタイル、セマンティック特徴をマージするクロスアテンション機構を利用するSISアーキテクチャを提案する。
実験結果から,提案手法は識別情報の保存に適するだけでなく,顔認識対向攻撃にも有効であることが判明した。
論文 参考訳(メタデータ) (2024-04-16T09:19:23Z) - Towards a Deeper Understanding of Skeleton-based Gait Recognition [4.812321790984493]
近年、ほとんどの歩行認識法は、人のシルエットを使って歩行の特徴を抽出している。
モデルに基づく手法はこれらの問題に悩まされず、身体関節の時間運動を表現することができる。
本研究では,高次入力と残差ネットワークを組み合わせたグラフ畳み込みネットワーク(GCN)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T18:23:37Z) - Deepfake Forensics via An Adversarial Game [99.84099103679816]
顔偽造と画像・映像品質の両面での一般化能力向上のための対人訓練を提唱する。
AIベースの顔操作は、しばしば、一般化が困難であるモデルによって容易に発見できる高周波アーティファクトにつながることを考慮し、これらの特定のアーティファクトを曖昧にしようとする新しい逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-03-25T02:20:08Z) - Pose-Guided Human Animation from a Single Image in the Wild [83.86903892201656]
身体ポーズのシーケンスによって制御される人の単一の画像から人間のアニメーションを合成するための新しいポーズ転送方法を提案する。
既存のポーズ転送手法は、新しいシーンに適用する際に重要な視覚的アーティファクトを示す。
我々は,シルエット,衣料ラベル,テクスチャを予測する合成ニューラルネットワークを設計した。
我々は、テスト現場でネットワークを微調整することなく、時間的に一貫した方法で人物のアイデンティティと外観を保存できる人間のアニメーションを合成することができる。
論文 参考訳(メタデータ) (2020-12-07T15:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。