論文の概要: RatBodyFormer: Rodent Body Surface from Keypoints
- arxiv url: http://arxiv.org/abs/2412.09599v1
- Date: Thu, 12 Dec 2024 18:59:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:32:11.100368
- Title: RatBodyFormer: Rodent Body Surface from Keypoints
- Title(参考訳): RatBodyFormer: キーポイントの物体表面
- Authors: Ayaka Higami, Karin Oshima, Tomoyo Isoguchi Shiramatsu, Hirokazu Takahashi, Shohei Nobuhara, Ko Nishino,
- Abstract要約: ラット体表面の高密度3次元試料を受動的に回収するための2つの重要な貢献点を紹介した。
ひとつは、ラットの行動キャプチャーのための新しいマルチカメラシステムRatDomeと、それを使ってキャプチャした大規模なデータセットだ。
第二のRatBodyFormerは、検出されたキーポイントを3Dボディサーフェスポイントに変換する新しいネットワークだ。
- 参考スコア(独自算出の注目度): 25.01030789558578
- License:
- Abstract: Rat behavior modeling goes to the heart of many scientific studies, yet the textureless body surface evades automatic analysis as it literally has no keypoints that detectors can find. The movement of the body surface, however, is a rich source of information for deciphering the rat behavior. We introduce two key contributions to automatically recover densely 3D sampled rat body surface points, passively. The first is RatDome, a novel multi-camera system for rat behavior capture, and a large-scale dataset captured with it that consists of pairs of 3D keypoints and 3D body surface points. The second is RatBodyFormer, a novel network to transform detected keypoints to 3D body surface points. RatBodyFormer is agnostic to the exact locations of the 3D body surface points in the training data and is trained with masked-learning. We experimentally validate our framework with a number of real-world experiments. Our results collectively serve as a novel foundation for automated rat behavior analysis and will likely have far-reaching implications for biomedical and neuroscientific research.
- Abstract(参考訳): ラットの行動モデリングは多くの科学的研究の核心となるが、テクスチャのない体の表面は、文字通り検出するキーポイントがないため、自動分析を回避している。
しかし、体表面の運動は、ラットの行動を理解するための豊富な情報源である。
ラット体表面の高密度3次元試料を受動的に回収するための2つの重要な貢献点を紹介した。
ひとつは、ラットの行動キャプチャーのための新しいマルチカメラシステムであるRatDomeと、3Dキーポイントと3Dボディサーフェスポイントからなる大規模なデータセットである。
第二のRatBodyFormerは、検出されたキーポイントを3Dボディサーフェスポイントに変換する新しいネットワークだ。
RatBodyFormerはトレーニングデータ中の3Dボディサーフェスポイントの正確な位置を知らないため、マスク付き学習でトレーニングされる。
我々は、実世界の実験で、我々のフレームワークを実験的に検証した。
本研究は,ラットの自律行動解析の新たな基盤として機能し,バイオメディカルおよび神経科学研究に多大な影響を及ぼす可能性が示唆された。
関連論文リスト
- CameraHMR: Aligning People with Perspective [54.05758012879385]
モノクロ画像からの正確な3次元ポーズと形状推定の課題に対処する。
既存のトレーニングデータセットには、擬似基底真理(pGT)を持つ実画像が含まれている。
pGTの精度を向上させる2つの貢献をしている。
論文 参考訳(メタデータ) (2024-11-12T19:12:12Z) - Learning to Estimate 3D Human Pose from Point Cloud [13.27496851711973]
本稿では,複雑な人体構造物の表面をモデル化するための入力データとして,点雲データを用いた3次元ポーズ推定のための深層人体ポーズネットワークを提案する。
2つの公開データセットに対する実験により,従来の最先端手法よりも精度が高いことを示す。
論文 参考訳(メタデータ) (2022-12-25T14:22:01Z) - SNAKE: Shape-aware Neural 3D Keypoint Field [62.91169625183118]
形状復元には点雲から3Dキーポイントを検出することが重要である。
形状再構成は3次元キーポイント検出に有効か?
本稿では,形状認識型ニューラル3Dキーポイントフィールドに短いSNAKEという,教師なしの新たなパラダイムを提案する。
論文 参考訳(メタデータ) (2022-06-03T17:58:43Z) - PedRecNet: Multi-task deep neural network for full 3D human pose and
orientation estimation [0.0]
マルチタスクネットワークは、様々なディープニューラルネットワークベースの歩行者検出機能をサポートしている。
ネットワークアーキテクチャは比較的単純だが強力であり、さらなる研究や応用にも容易に適応できる。
論文 参考訳(メタデータ) (2022-04-25T10:47:01Z) - Surface-Aligned Neural Radiance Fields for Controllable 3D Human
Synthesis [4.597864989500202]
本稿では,多視点RGBビデオから暗黙の3次元モデルを再構築する手法を提案する。
本手法は,人体メッシュの表面から,メッシュ表面点と署名された距離のニューラルシーン表現を定義する。
論文 参考訳(メタデータ) (2022-01-05T16:25:32Z) - Learning Temporal 3D Human Pose Estimation with Pseudo-Labels [3.0954251281114513]
自己監督型3次元ポーズ推定のための簡易かつ効果的なアプローチを提案する。
我々は、マルチビューカメラシステムの2Dボディポーズ推定を三角測量に頼っている。
提案手法はHuman3.6MとMPI-INF-3DHPベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-14T17:40:45Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - KAMA: 3D Keypoint Aware Body Mesh Articulation [79.04090630502782]
本稿では,パラメトリックなボディーモデルSMPLを簡単な幾何学的変換によって記述する解析解を提案する。
今回のアプローチは,最先端のアプローチと比較して,画像コンテンツのアライメントが大幅に向上する。
挑戦的な3DPWおよびHuman3.6Mの結果は私達のアプローチが最先端のボディ網付属品をもたらすことを示します。
論文 参考訳(メタデータ) (2021-04-27T23:01:03Z) - Human Motion Tracking by Registering an Articulated Surface to 3-D
Points and Normals [12.356268615409324]
本研究では、表面を3次元データに登録することで、人間の動作追跡の問題に対処する。
本稿では,運動パラメータと自由運動パラメータの両方に対する最大推定値を反復的に計算する手法を提案する。
本研究では,不完全なシルエットから収集した疎視的形状データを用いて,人間の動作を追跡する手法について述べる。
論文 参考訳(メタデータ) (2020-12-08T16:02:16Z) - Pose2Mesh: Graph Convolutional Network for 3D Human Pose and Mesh
Recovery from a 2D Human Pose [70.23652933572647]
本稿では,人間のメッシュ頂点の3次元座標を直接推定するグラフ畳み込みニューラルネットワーク(GraphCNN)を提案する。
我々のPose2Meshは、様々なベンチマークデータセットにおいて、以前の3次元人間のポーズとメッシュ推定方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-20T16:01:56Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。