論文の概要: Who Left the Dogs Out? 3D Animal Reconstruction with Expectation
Maximization in the Loop
- arxiv url: http://arxiv.org/abs/2007.11110v2
- Date: Thu, 11 Feb 2021 13:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 05:13:26.774571
- Title: Who Left the Dogs Out? 3D Animal Reconstruction with Expectation
Maximization in the Loop
- Title(参考訳): 誰が犬を置き去りにしたの?
ループ内最大化を期待する3次元動物再構成
- Authors: Benjamin Biggs, Oliver Boyne, James Charles, Andrew Fitzgibbon and
Roberto Cipolla
- Abstract要約: モノクラーインターネット画像から犬の3Dポーズと形状を復元する,エンドツーエンドの自動手法を提案する。
パラメータ推定の正則化を支援するために,従来の作業よりも形状よりもよりリッチな事前学習を行う。
我々は、Stanford Dogデータセット、20,580犬の画像の'in the wild'データセットで結果を実証した。
- 参考スコア(独自算出の注目度): 25.40930904714051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce an automatic, end-to-end method for recovering the 3D pose and
shape of dogs from monocular internet images. The large variation in shape
between dog breeds, significant occlusion and low quality of internet images
makes this a challenging problem. We learn a richer prior over shapes than
previous work, which helps regularize parameter estimation. We demonstrate
results on the Stanford Dog dataset, an 'in the wild' dataset of 20,580 dog
images for which we have collected 2D joint and silhouette annotations to split
for training and evaluation. In order to capture the large shape variety of
dogs, we show that the natural variation in the 2D dataset is enough to learn a
detailed 3D prior through expectation maximization (EM). As a by-product of
training, we generate a new parameterized model (including limb scaling) SMBLD
which we release alongside our new annotation dataset StanfordExtra to the
research community.
- Abstract(参考訳): モノクラーインターネット画像から犬の3Dポーズと形状を復元する,エンドツーエンドの自動手法を提案する。
犬種間の形状の大きな変化、重要な排除、低品質のインターネット画像は、この問題を困難な問題にしている。
パラメータ推定を正則化するのに役立つ従来の作業よりも、よりリッチな形状の事前学習を行う。
2dジョイントとシルエットのアノテーションを収集した20,580個の犬画像のデータセットであるstanford dog datasetについて,トレーニングと評価のために分割した結果を示す。
犬の大きな形状を捉えるため、2dデータセットの自然な変化は期待最大化(em)によって詳細な3dを学習するのに十分であることを示す。
トレーニングの副産物として、新しいアノテーションデータセットであるStanfordExtraとともにリリースした新しいパラメータ化モデル(手足スケーリングを含む)を研究コミュニティに提供します。
関連論文リスト
- Learning the 3D Fauna of the Web [70.01196719128912]
3D-Faunaは,100種以上の動物種を対象に,パンカテゴリーで変形可能な3D動物モデルを共同で学習する手法である。
動物モデリングにおける重要なボトルネックの1つは、トレーニングデータの可用性の制限である。
従来のカテゴリー固有の試みは,訓練画像に制限のある希少種への一般化に失敗することを示す。
論文 参考訳(メタデータ) (2024-01-04T18:32:48Z) - Animal3D: A Comprehensive Dataset of 3D Animal Pose and Shape [32.11280929126699]
哺乳類の3Dポーズと形状推定のための包括的データセットであるAnimal3Dを提案する。
動物3Dは、40種の哺乳類から収集された3379枚の画像、26個のキーポイントの高品質なアノテーション、特にSMALモデルのポーズと形状パラメータで構成されている。
The Animal3D data based on the Animal3D dataset, we benchmark representative shape and pose Estimation model at (1) 教師付き学習, (2) 合成画像から実写への変換, 3) 微調整された人間のポーズと形状推定モデル。
論文 参考訳(メタデータ) (2023-08-22T18:57:07Z) - Of Mice and Pose: 2D Mouse Pose Estimation from Unlabelled Data and
Synthetic Prior [0.7499722271664145]
そこで本稿では, 合成合成経験的ポーズを用いた2次元マウスのポーズ推定手法を提案する。
本手法はマウスの四肢構造に適応し,合成3次元マウスモデルから2次元ポーズの経験的先行を生成できる。
新しいマウスビデオデータセットの実験では,ポーズ予測を手作業で得られた真実と比較することにより,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2023-07-25T09:31:55Z) - 3D generation on ImageNet [76.0440752186121]
3DGP: トレーニングデータに関するより一般的な仮定を持つ3D合成フレームワークを開発した。
私たちのモデルは3つの新しいアイデアに基づいている。
SDIP Dogs 256x256, SDIP Elephants 256x256, LSUN Horses 256x256, ImageNet 256x256の4つのデータセットについて検討を行った。
論文 参考訳(メタデータ) (2023-03-02T17:06:57Z) - LASSIE: Learning Articulated Shapes from Sparse Image Ensemble via 3D
Part Discovery [72.3681707384754]
そこで,本研究では,特定の動物種について,数枚の画像のみを用いて,動物の3次元ポーズと形状を推定する現実的な問題設定を提案する。
我々は2Dや3Dの地平線アノテーションを前提としないし、多視点や時間的情報も利用しない。
そこで本研究では,3次元部品を自己監督的に発見する新しい最適化フレームワークLASSIEを提案する。
論文 参考訳(メタデータ) (2022-07-07T17:00:07Z) - BARC: Learning to Regress 3D Dog Shape from Images by Exploiting Breed
Information [66.77206206569802]
私たちのゴールは、1枚の画像から犬の3D形状とポーズを復元することです。
近年の研究では、画像から手足のスケールパラメータを追加してSMAL動物モデルを直接回帰する研究が提案されている。
我々の手法はBARC(Breed-Augmented Regression using Classification)と呼ばれ、いくつかの重要な方法で先行作業を越えています。
この研究は、a-prioriの遺伝子類似性に関する情報が、3Dトレーニングデータの欠如を補うのに役立つことを示している。
論文 参考訳(メタデータ) (2022-03-29T13:16:06Z) - Coarse-to-fine Animal Pose and Shape Estimation [67.39635503744395]
単一画像から3次元動物メッシュを再構成する粗大なアプローチを提案する。
粗い推定段階はまずSMALモデルのポーズ、形状、翻訳パラメータを推定する。
次に、推定メッシュをグラフ畳み込みネットワーク(GCN)によって開始点として使用し、精製段階における頂点毎の変形を予測する。
論文 参考訳(メタデータ) (2021-11-16T01:27:20Z) - Probabilistic 3D Human Shape and Pose Estimation from Multiple
Unconstrained Images in the Wild [25.647676661390282]
人間の被写体の複数の画像のグループから、形状とポーズ推定という新しいタスクを提案します。
提案手法は,SMPL体形状上の分布を予測し,入力画像にパラメータを付与する。
複数画像入力グループに存在する付加体形状情報により, 人体形状推定の精度が向上することを示す。
論文 参考訳(メタデータ) (2021-03-19T18:32:16Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z) - RGBD-Dog: Predicting Canine Pose from RGBD Sensors [25.747221533627464]
RGBD画像から3次元犬のポーズ推定の問題に焦点をあてる。
このデータから合成RGBD画像のデータセットを生成する。
積み重ねられた砂時計ネットワークは、3D関節の場所を予測するために訓練される。
論文 参考訳(メタデータ) (2020-04-16T17:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。