論文の概要: Wild Motion Unleashed: Markerless 3D Kinematics and Force Estimation in
Cheetahs
- arxiv url: http://arxiv.org/abs/2312.05879v1
- Date: Sun, 10 Dec 2023 13:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 18:15:29.903387
- Title: Wild Motion Unleashed: Markerless 3D Kinematics and Force Estimation in
Cheetahs
- Title(参考訳): 野生の運動を解き放たれた : チーターにおけるマーカーレス3次元運動学と力推定
- Authors: Zico da Silva, Stacy Shield, Penny E. Hudson, Alan M. Wilson, Fred
Nicolls and Amir Patel
- Abstract要約: 野生のチーターから得られたデータを用いて3次元運動量と関節トルクをリモートで推定するための軌道最適化手法を提案する。
平均再投影誤差17.69ピクセル(62.94ドル%$PCK)で3Dキネマティクスを再構築できる。
ジョイントトルクは地上の真理データに対して直接検証することはできないが、推定トルクは制御された環境での四重項の以前の研究と一致している。
- 参考スコア(独自算出の注目度): 3.396214578939738
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The complex dynamics of animal manoeuvrability in the wild is extremely
challenging to study. The cheetah ($\textit{Acinonyx jubatus}$) is a perfect
example: despite great interest in its unmatched speed and manoeuvrability,
obtaining complete whole-body motion data from these animals remains an
unsolved problem. This is especially difficult in wild cheetahs, where it is
essential that the methods used are remote and do not constrain the animal's
motion. In this work, we use data obtained from cheetahs in the wild to present
a trajectory optimisation approach for estimating the 3D kinematics and joint
torques of subjects remotely. We call this approach kinetic full trajectory
estimation (K-FTE). We validate the method on a dataset comprising synchronised
video and force plate data. We are able to reconstruct the 3D kinematics with
an average reprojection error of 17.69 pixels (62.94 $\%$ PCK using the
nose-to-eye(s) length segment as a threshold), while the estimates produce an
average root-mean-square error of 171.3 N ($\approx$ 17.16 $\%$ of peak force
during stride) for the estimated ground reaction force when compared against
the force plate data. While the joint torques cannot be directly validated
against ground truth data, as no such data is available for cheetahs, the
estimated torques agree with previous studies of quadrupeds in controlled
settings. These results will enable deeper insight into the study of animal
locomotion in a more natural environment for both biologists and roboticists.
- Abstract(参考訳): 野生動物におけるマニピュラビリティの複雑なダイナミクスの研究は極めて困難である。
チーター(\textit{Acinonyx jubatus}$)は、その不整合速度と操作性に大きな関心があるにもかかわらず、これらの動物から完全な全身の動きデータを取得することは未解決の問題のままである。
これは野生のチーターでは特に困難であり、使用する方法が遠方であり、動物の動きを拘束しないことが不可欠である。
本研究では,野生のチーターから得られたデータを用いて3次元運動量と関節トルクを遠隔で推定する軌道最適化手法を提案する。
この手法をK-FTE (etic full trajectory Estimation) と呼ぶ。
本手法は,同期ビデオとフォースプレートデータからなるデータセット上で検証する。
3次元キネマティックスの平均再投影誤差は17.69ピクセル (62.94 $\%$ pck は鼻から眼までの長さをしきい値とする) であり, 推定値では, 力板データと比較すると, 平均根-平均2乗誤差は171.3 n (約17.16$\%$ of peak force during stride) である。
ジョイントトルクは地上の真理データに対して直接検証することはできないが、チーターではそのようなデータが利用できないため、推定トルクは制御された設定における以前の四重項の研究と一致する。
これらの結果は、生物学者とロボット工学者の両方にとって、より自然な環境における動物の移動の研究に深い洞察をもたらすだろう。
関連論文リスト
- SINETRA: a Versatile Framework for Evaluating Single Neuron Tracking in Behaving Animals [7.039426581802364]
SINETRAは、変形可能な背景にある粒子の合成追跡データを生成する汎用シミュレータである。
このシミュレーターは、Hydra Vulgarisのような動物が見ている複雑な動きを反映した注釈付き2Dと3Dビデオを生成する。
論文 参考訳(メタデータ) (2024-11-14T14:12:16Z) - BaboonLand Dataset: Tracking Primates in the Wild and Automating Behaviour Recognition from Drone Videos [0.8074955699721389]
本研究では,バブーン検出,追跡,行動認識のための,ドローンビデオからの新たなデータセットを提案する。
Baboon検出データセットは、ドローンビデオにすべてのbaboonをバウンディングボックスで手動でアノテートすることで作成されている。
行動認識データセットは、各動物を中心としたビデオサブリージョンであるミニシーンにトラックを変換することで生成される。
論文 参考訳(メタデータ) (2024-05-27T23:09:37Z) - WildGEN: Long-horizon Trajectory Generation for Wildlife [3.8986045286948]
軌道生成は歩行者、車両、野生動物の運動研究において重要な関心事である。
本研究では,変分オートエンコーダ(VAE)に基づく手法を用いて,この問題に対処する概念的フレームワークWildGENを紹介する。
その後、スムーズなフィルタに基づいて生成された軌跡の後の処理工程を行い、過度のさまよりを低減する。
論文 参考訳(メタデータ) (2023-12-30T05:08:28Z) - OmniMotionGPT: Animal Motion Generation with Limited Data [70.35662376853163]
最初のテキストアニマルモーションデータセットであるAnimalML3Dを紹介した。
我々は,動物データに基づくヒトの動き生成ベースラインのトレーニング結果よりも定量的かつ質的に,高い多様性と忠実さで動物の動きを生成することができる。
論文 参考訳(メタデータ) (2023-11-30T07:14:00Z) - Occluded Human Body Capture with Self-Supervised Spatial-Temporal Motion
Prior [7.157324258813676]
私たちは、トレーニングとテストの両方に使用できる最初の3Dクローズドモーションデータセット(OcMotion)を構築します。
次に、空間時間層は、関節レベルの相関を学習するために設計される。
実験結果から,提案手法は,映像から高精度で一貫性のある人間の動きを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-12T08:15:11Z) - APT-36K: A Large-scale Benchmark for Animal Pose Estimation and Tracking [77.87449881852062]
APT-36Kは動物のポーズ推定と追跡のための最初の大規模ベンチマークである。
このビデオは、30種の動物から収集・フィルタリングされた2,400のビデオクリップと、各ビデオの15フレームで構成されており、合計で36,000フレームとなっている。
我々は,(1)ドメイン内およびドメイン間移動学習環境下での単一フレームでの動物ポーズ推定,(2)未確認動物に対する種間ドメイン一般化テスト,(3)動物追跡による動物ポーズ推定の3つのモデルについて,いくつかの代表的モデルをベンチマークした。
論文 参考訳(メタデータ) (2022-06-12T07:18:36Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - AcinoSet: A 3D Pose Estimation Dataset and Baseline Models for Cheetahs
in the Wild [51.35013619649463]
我々はAcinoSetと呼ばれる野生のフリーランニングチーターの広範なデータセットを提示する。
データセットには、119,490フレームのマルチビュー同期高速ビデオ映像、カメラキャリブレーションファイル、7,588フレームが含まれている。
また、結果の3D軌道、人間チェックされた3D地上真実、およびデータを検査するインタラクティブツールも提供される。
論文 参考訳(メタデータ) (2021-03-24T15:54:11Z) - Fast and Furious: Real Time End-to-End 3D Detection, Tracking and Motion
Forecasting with a Single Convolutional Net [93.51773847125014]
本研究では,3Dセンサが捉えたデータを用いて,3D検出,追跡,動作予測を共同で推論する,新たなディープニューラルネットワークを提案する。
鳥の眼球を3次元の世界として表現し,空間と時間にまたがる3次元畳み込みを行う。
論文 参考訳(メタデータ) (2020-12-22T22:43:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。