論文の概要: Towards Texture- And Shape-Independent 3D Keypoint Estimation in Birds
- arxiv url: http://arxiv.org/abs/2505.16633v1
- Date: Thu, 22 May 2025 13:04:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.302721
- Title: Towards Texture- And Shape-Independent 3D Keypoint Estimation in Birds
- Title(参考訳): 鳥のテクスチャーと形状に依存しない3次元キーポイント推定に向けて
- Authors: Valentin Schmuker, Alex Hoi Hang Chan, Bastian Goldluecke, Urs Waldmann,
- Abstract要約: 複数のハトの3次元関節位置を推定・追跡するためのテクスチャに依存しないアプローチを提案する。
我々は既存の3D-MuPPETフレームワークを構築し、最大10羽のハトの3Dポーズを推定し追跡する。
- 参考スコア(独自算出の注目度): 1.837431956557716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a texture-independent approach to estimate and track 3D joint positions of multiple pigeons. For this purpose, we build upon the existing 3D-MuPPET framework, which estimates and tracks the 3D poses of up to 10 pigeons using a multi-view camera setup. We extend this framework by using a segmentation method that generates silhouettes of the individuals, which are then used to estimate 2D keypoints. Following 3D-MuPPET, these 2D keypoints are triangulated to infer 3D poses, and identities are matched in the first frame and tracked in 2D across subsequent frames. Our proposed texture-independent approach achieves comparable accuracy to the original texture-dependent 3D-MuPPET framework. Additionally, we explore our approach's applicability to other bird species. To do that, we infer the 2D joint positions of four bird species without additional fine-tuning the model trained on pigeons and obtain preliminary promising results. Thus, we think that our approach serves as a solid foundation and inspires the development of more robust and accurate texture-independent pose estimation frameworks.
- Abstract(参考訳): 本稿では,複数のハトの3次元関節位置を推定・追跡するためのテクスチャに依存しないアプローチを提案する。
この目的のために、我々は既存の3D-MuPPETフレームワークを構築し、マルチビューカメラのセットアップを用いて最大10羽のハトの3Dポーズを推定し追跡する。
この枠組みを,個体のシルエットを生成するセグメンテーション法を用いて拡張し,その2次元キーポイントを推定する。
3D-MuPPETの後、これらの2Dキーポイントは3Dポーズを推測するために三角化され、アイデンティティは第1フレームで一致し、その後のフレーム間で2Dで追跡される。
提案手法は,従来のテクスチャ依存型3D-MuPPETフレームワークに匹敵する精度を実現する。
さらに、他の鳥類にも適用可能な方法を探る。
そこで本研究では,4種の鳥類の2次元関節位置を,ハトに訓練されたモデルをさらに微調整することなく推定し,予備的な有望な結果を得た。
このように、我々のアプローチはしっかりとした基盤として機能し、より堅牢で正確なテクスチャに依存しないポーズ推定フレームワークの開発を促します。
関連論文リスト
- L3D-Pose: Lifting Pose for 3D Avatars from a Single Camera in the Wild [15.174438063000453]
3Dポーズ推定は、奥行きを取り入れたより包括的なソリューションを提供するが、動物のための3Dポーズデータセットを作成することは、自然の環境での動的で予測不可能な振る舞いのために難しい。
本研究では,2次元から3次元へのポーズを持ち上げるために,体系的に合成されたデータセットを用いたフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-02T10:04:12Z) - UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - 3D-MuPPET: 3D Multi-Pigeon Pose Estimation and Tracking [14.52333427647304]
複数のカメラビューを用いて対話的な速度で最大10羽のハトの3Dポーズを推定・追跡するフレームワークである3D-MuPPETを提案する。
まず第1フレームのグローバルIDに2D検出を動的にマッチングし、次に2Dトラッカーを使用して、その後のフレームにおけるビュー間のIDを維持する。
また、3D-MuPPETは自然環境からのアノテーションを伴わずに屋外でも機能することを示した。
論文 参考訳(メタデータ) (2023-08-29T14:02:27Z) - Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling [83.76377808476039]
本研究では,人間のポーズの変形をモデル化し,それに伴う拡散に基づく動きを事前に設計する手法を提案する。
動作中の3次元人間の骨格を復元する作業は3次元基準骨格の推定に分割する。
混合時空間NASfMformerを用いて、各フレームの3次元基準骨格と骨格変形を2次元観測シーケンスから同時に推定する。
論文 参考訳(メタデータ) (2023-08-18T16:41:57Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - CameraPose: Weakly-Supervised Monocular 3D Human Pose Estimation by
Leveraging In-the-wild 2D Annotations [25.05308239278207]
一つの画像から3次元のポーズ推定を行うための弱教師付きフレームワークであるCameraPoseを提案する。
カメラパラメータブランチを追加することで、Wildの2Dアノテーションをパイプラインに投入して、トレーニングの多様性を高めることができます。
また、2次元ポーズ推定器によって抽出されたノイズの多い2Dキーポイントの品質をさらに向上させるため、信頼誘導損失を有する改良型ネットワークモジュールも導入する。
論文 参考訳(メタデータ) (2023-01-08T05:07:41Z) - VoxelTrack: Multi-Person 3D Human Pose Estimation and Tracking in the
Wild [98.69191256693703]
本稿では,VoxelTrackを用いて,多人数の3次元ポーズ推定と,広義のベースラインで分離された少数のカメラからの追跡を行う。
マルチブランチネットワークを使用して、環境中のすべての人に3Dポーズと再識別機能(Re-ID)を共同で推定する。
これは、Shelf、Campus、CMU Panopticの3つの公開データセットに対して、最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-08-05T08:35:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。