論文の概要: Model-based Metric 3D Shape and Motion Reconstruction of Wild Bottlenose Dolphins in Drone-Shot Videos
- arxiv url: http://arxiv.org/abs/2504.15782v1
- Date: Tue, 22 Apr 2025 10:47:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 20:55:48.596326
- Title: Model-based Metric 3D Shape and Motion Reconstruction of Wild Bottlenose Dolphins in Drone-Shot Videos
- Title(参考訳): ドローンショット映像におけるモデルベース3次元形状と野生ボツリヌスイルフィンの運動再構成
- Authors: Daniele Baieri, Riccardo Cicciarella, Michael Krützen, Emanuele Rodolà, Silvia Zuffi,
- Abstract要約: モノクロビデオから野生イルカの3次元形状と動きを推定する問題に対処する。
異なる海洋環境下で撮影された映像に本手法を適用した。
質量と体積を推定し、その結果を手動2次元計測法と比較する。
- 参考スコア(独自算出の注目度): 14.255612775603456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of estimating the metric 3D shape and motion of wild dolphins from monocular video, with the aim of assessing their body condition. While considerable progress has been made in reconstructing 3D models of terrestrial quadrupeds, aquatic animals remain unexplored due to the difficulty of observing them in their natural underwater environment. To address this, we propose a model-based approach that incorporates a transmission model to account for water-induced occlusion. We apply our method to video captured under different sea conditions. We estimate mass and volume, and compare our results to a manual 2D measurements-based method.
- Abstract(参考訳): モノクラービデオから野生イルカの3次元形状と動きを計測し,体調を評価するという課題に対処する。
地上の四足歩行の3Dモデルの構築にはかなりの進歩があったが、水中での観察が困難であったため、水生動物は発見されていない。
そこで本研究では,水による閉塞を考慮に入れたトランスミッションモデルを用いたモデルベースアプローチを提案する。
異なる海洋環境下で撮影された映像に本手法を適用した。
質量と体積を推定し、その結果を手動2次元計測法と比較する。
関連論文リスト
- Fish2Mesh Transformer: 3D Human Mesh Recovery from Egocentric Vision [0.3387808070669509]
エゴセントリックな人体推定は、ウェアラブルカメラのファーストパーソナリティの観点から、ユーザーの身体のポーズと形状を推測することができる。
そこで,魚眼を意識したトランスフォーマーモデルであるFish2Meshを紹介した。
実験により、Fish2Meshは従来の最先端の3D HMRモデルより優れていることが示された。
論文 参考訳(メタデータ) (2025-03-08T06:34:49Z) - Generative Zoo [41.65977386204797]
各種の哺乳類の四足動物に対して多様なポーズと形状の集合をサンプリングするパイプラインを導入し,それに対応する接地トルースポーズと形状パラメータを用いたリアルな画像を生成する。
我々はGenZoo上で3Dポーズと形状回帰器を訓練し、実際の動物のポーズと形状推定ベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-11T04:57:53Z) - Learning the 3D Fauna of the Web [70.01196719128912]
3D-Faunaは,100種以上の動物種を対象に,パンカテゴリーで変形可能な3D動物モデルを共同で学習する手法である。
動物モデリングにおける重要なボトルネックの1つは、トレーニングデータの可用性の制限である。
従来のカテゴリー固有の試みは,訓練画像に制限のある希少種への一般化に失敗することを示す。
論文 参考訳(メタデータ) (2024-01-04T18:32:48Z) - Virtual Pets: Animatable Animal Generation in 3D Scenes [84.0990909455833]
仮想ペット(Virtual Pet)は、3次元環境下での標的動物種に対する現実的で多様な動きをモデル化するための新しいパイプラインである。
我々はモノクロインターネットビデオを活用し、背景と背景の静的なNeRF表現に対して変形可能なNeRF表現を抽出する。
我々は,種レベルの共有テンプレート学習とビデオ毎の微調整を含む再構築戦略を開発する。
論文 参考訳(メタデータ) (2023-12-21T18:59:30Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling [83.76377808476039]
本研究では,人間のポーズの変形をモデル化し,それに伴う拡散に基づく動きを事前に設計する手法を提案する。
動作中の3次元人間の骨格を復元する作業は3次元基準骨格の推定に分割する。
混合時空間NASfMformerを用いて、各フレームの3次元基準骨格と骨格変形を2次元観測シーケンスから同時に推定する。
論文 参考訳(メタデータ) (2023-08-18T16:41:57Z) - Predictive Modeling of Equine Activity Budgets Using a 3D Skeleton
Reconstructed from Surveillance Recordings [0.8602553195689513]
4つの同時監視カメラ記録から馬の3Dポーズを再構築するパイプラインを提案する。
私たちの環境は、カメラの視野の制限や、比較的閉じて小さな環境など、取り組まなければならない興味深い課題を生んでいる。
論文 参考訳(メタデータ) (2023-06-08T16:00:04Z) - Human Performance Capture from Monocular Video in the Wild [50.34917313325813]
本研究では,挑戦的な身体ポーズを特徴とするモノクロ映像から動的3次元人体形状をキャプチャする手法を提案する。
本手法は,現在開発中の3DPWビデオデータセットにおいて,最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2021-11-29T16:32:41Z) - HuMoR: 3D Human Motion Model for Robust Pose Estimation [100.55369985297797]
HuMoRは、時間的ポーズと形状のロバスト推定のための3Dヒューマンモーションモデルです。
モーションシーケンスの各ステップにおけるポーズの変化の分布を学習する条件付き変分オートエンコーダについて紹介する。
本モデルが大規模モーションキャプチャーデータセットのトレーニング後に多様な動きや体型に一般化することを示す。
論文 参考訳(メタデータ) (2021-05-10T21:04:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。