論文の概要: AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild
- arxiv url: http://arxiv.org/abs/2103.13282v1
- Date: Wed, 24 Mar 2021 15:54:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:46:44.265073
- Title: AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild
- Title(参考訳): acinoset:野生のチーターのための3次元ポーズ推定データセットとベースラインモデル
- Authors: Daniel Joska and Liam Clark and Naoya Muramatsu and Ricardo Jericevich
and Fred Nicolls and Alexander Mathis and Mackenzie W. Mathis and Amir Patel
- Abstract要約: 我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
- 参考スコア(独自算出の注目度): 51.35013619649463
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animals are capable of extreme agility, yet understanding their complex
dynamics, which have ecological, biomechanical and evolutionary implications,
remains challenging. Being able to study this incredible agility will be
critical for the development of next-generation autonomous legged robots. In
particular, the cheetah (acinonyx jubatus) is supremely fast and maneuverable,
yet quantifying its whole-body 3D kinematic data during locomotion in the wild
remains a challenge, even with new deep learning-based methods. In this work we
present an extensive dataset of free-running cheetahs in the wild, called
AcinoSet, that contains 119,490 frames of multi-view synchronized high-speed
video footage, camera calibration files and 7,588 human-annotated frames. We
utilize markerless animal pose estimation to provide 2D keypoints. Then, we use
three methods that serve as strong baselines for 3D pose estimation tool
development: traditional sparse bundle adjustment, an Extended Kalman Filter,
and a trajectory optimization-based method we call Full Trajectory Estimation.
The resulting 3D trajectories, human-checked 3D ground truth, and an
interactive tool to inspect the data is also provided. We believe this dataset
will be useful for a diverse range of fields such as ecology, neuroscience,
robotics, biomechanics as well as computer vision.
- Abstract(参考訳): 動物は極度の俊敏性を持つが、生態学的、生体力学的、進化的意味を持つ複雑なダイナミクスを理解することは依然として困難である。
この驚くべき俊敏性を研究することは、次世代の自律足ロボットの開発に不可欠だろう。
特に、cheetah(acinonyx jubatus)は極めて高速で操作性があるが、野生の移動中に全身の3dキネマティックデータを定量化することは、新しいディープラーニングベースの方法でも課題である。
本研究では,マルチビュー同期高速ビデオ映像,カメラキャリブレーションファイル,および7,588フレームの119,490フレームを含む,AcinoSetと呼ばれる野生のフリーランニングチーターのデータセットを提案する。
我々はマーカーレス動物ポーズ推定を用いて2Dキーポイントを提供する。
次に, 3次元ポーズ推定ツールの開発において, 従来のスパースバンドル調整, 拡張カルマンフィルタ, 完全軌道推定と呼ばれる軌道最適化に基づく3つの手法を用いた。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
このデータセットは、エコロジー、神経科学、ロボティクス、バイオメカニクス、コンピュータビジョンなど、さまざまな分野に有用であると考えています。
関連論文リスト
- SINETRA: a Versatile Framework for Evaluating Single Neuron Tracking in Behaving Animals [7.039426581802364]
SINETRAは、変形可能な背景にある粒子の合成追跡データを生成する汎用シミュレータである。
このシミュレーターは、Hydra Vulgarisのような動物が見ている複雑な動きを反映した注釈付き2Dと3Dビデオを生成する。
論文 参考訳(メタデータ) (2024-11-14T14:12:16Z) - Wild Motion Unleashed: Markerless 3D Kinematics and Force Estimation in
Cheetahs [3.396214578939738]
野生のチーターから得られたデータを用いて3次元運動量と関節トルクをリモートで推定するための軌道最適化手法を提案する。
平均再投影誤差17.69ピクセル(62.94ドル%$PCK)で3Dキネマティクスを再構築できる。
ジョイントトルクは地上の真理データに対して直接検証することはできないが、推定トルクは制御された環境での四重項の以前の研究と一致している。
論文 参考訳(メタデータ) (2023-12-10T13:14:58Z) - 3D-MuPPET: 3D Multi-Pigeon Pose Estimation and Tracking [14.52333427647304]
複数のカメラビューを用いて対話的な速度で最大10羽のハトの3Dポーズを推定・追跡するフレームワークである3D-MuPPETを提案する。
まず第1フレームのグローバルIDに2D検出を動的にマッチングし、次に2Dトラッカーを使用して、その後のフレームにおけるビュー間のIDを維持する。
また、3D-MuPPETは自然環境からのアノテーションを伴わずに屋外でも機能することを示した。
論文 参考訳(メタデータ) (2023-08-29T14:02:27Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Towards Single Camera Human 3D-Kinematics [15.559206592078425]
深層ニューラルネットワークを用いたビデオから直接3次元人体動推定D3KEを提案する。
実験により,提案したエンドツーエンドトレーニングは頑健であり,2次元および3次元マーカーレスモーションキャプチャに基づく運動推定パイプラインよりも優れていた。
論文 参考訳(メタデータ) (2023-01-13T08:44:09Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - FLAG3D: A 3D Fitness Activity Dataset with Language Instruction [89.60371681477791]
FLAG3Dは,60カテゴリの180Kシーケンスを含む言語命令付き大規模3Dフィットネスアクティビティデータセットである。
FLAG3Dは、クロスドメインなヒューマンアクション認識、動的ヒューマンメッシュリカバリ、言語誘導型ヒューマンアクション生成など、さまざまな課題に対して大きな研究価値を提供する。
論文 参考訳(メタデータ) (2022-12-09T02:33:33Z) - MBW: Multi-view Bootstrapping in the Wild [30.038254895713276]
微細な検出器を訓練するマルチカメラシステムは、そのようなエラーを検出することを約束している。
このアプローチは、キャリブレーションされたカメラと厳密な幾何学に基づいており、現実のシナリオでは高価で、管理が難しく、実用的ではない。
本稿では,高忠実度ランドマーク推定値を得るために,非剛性3次元ニューラルネットワークと深部流れを組み合わせることで,これらのボトルネックに対処する。
既存の手法では不可能な3D再構成とともに、最先端の完全教師付き手法に匹敵する2D結果を生成することができる。
論文 参考訳(メタデータ) (2022-10-04T16:27:54Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。