論文の概要: I2I: Image to Icosahedral Projection for $\mathrm{SO}(3)$ Object
Reasoning from Single-View Images
- arxiv url: http://arxiv.org/abs/2207.08925v1
- Date: Mon, 18 Jul 2022 20:24:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 13:18:57.848141
- Title: I2I: Image to Icosahedral Projection for $\mathrm{SO}(3)$ Object
Reasoning from Single-View Images
- Title(参考訳): i2i:single-viewイメージからの$\mathrm{so}(3)$オブジェクト推論のための画像からicosahedralへの投影
- Authors: David Klee, Ondrej Biza, Robert Platt and Robin Walters
- Abstract要約: 2次元画像に基づく3次元オブジェクトの推論は、物体を異なる方向から見ることによって、外観が大きく変化するため困難である。
我々は、入力画像をイコサヘドロンに投影することで$mathrmSO(3)$の理由から、イコサヘドラル群畳み込みに基づく新しいモデルアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 3.823356975862006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning about 3D objects based on 2D images is challenging due to large
variations in appearance caused by viewing the object from different
orientations. Ideally, our model would be invariant or equivariant to changes
in object pose. Unfortunately, this is typically not possible with 2D image
input because we do not have an a priori model of how the image would change
under out-of-plane object rotations. The only $\mathrm{SO}(3)$-equivariant
models that currently exist require point cloud input rather than 2D images. In
this paper, we propose a novel model architecture based on icosahedral group
convolution that reasons in $\mathrm{SO(3)}$ by projecting the input image onto
an icosahedron. As a result of this projection, the model is approximately
equivariant to rotation in $\mathrm{SO}(3)$. We apply this model to an object
pose estimation task and find that it outperforms reasonable baselines.
- Abstract(参考訳): 2d画像に基づく3dオブジェクトの推論は、異なる方向からオブジェクトを見ることによる外観の変化が大きいため、難しい。
理想的には、我々のモデルはオブジェクトのポーズの変化に不変または同変である。
残念なことに、これは通常は2次元画像入力では不可能である。
現在存在する唯一の$\mathrm{SO}(3)$-equivariantモデルは、2D画像ではなくポイントクラウド入力を必要とする。
本稿では,入力画像をイコサヘドロンに投影することで,$\mathrm{so(3)}$ の理由を導出する,イコサヘドラル群畳み込みに基づく新しいモデルアーキテクチャを提案する。
この射影の結果、モデルは$\mathrm{SO}(3)$の回転にほぼ同値である。
このモデルをオブジェクトのポーズ推定タスクに適用し、合理的なベースラインよりも優れていることを示す。
関連論文リスト
- Image to Sphere: Learning Equivariant Features for Efficient Pose
Prediction [3.823356975862006]
単一点推定を予測する方法は、対称性を持つ物体のポーズをうまく予測せず、不確実性を表現できない。
画像領域から3次元回転多様体への特徴量の新しいマッピングを提案する。
本稿では,オブジェクト指向予測における本手法の有効性を実証し,PASCAL3D+データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-27T16:23:19Z) - Equivariant Light Field Convolution and Transformer [40.840098156362316]
2D画像からの幾何学的事前の深層学習には、各画像を2D$標準フレームで表現する必要があることが多い。
3次元の光線空間において、$SE(3)$-equivariant convolution and transformerを提案することによって、フレーム変換をコーディネートする複数のビューから事前学習方法を示す。
論文 参考訳(メタデータ) (2022-12-30T18:38:31Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - EpiGRAF: Rethinking training of 3D GANs [60.38818140637367]
本稿では,SotA画像品質の高い高解像度3Dジェネレータを,パッチワイズを単純に訓練するまったく異なる経路を辿ることによって実現可能であることを示す。
EpiGRAFと呼ばれる結果のモデルは、効率的で高解像度で純粋な3Dジェネレータである。
論文 参考訳(メタデータ) (2022-06-21T17:08:23Z) - Disentangled3D: Learning a 3D Generative Model with Disentangled
Geometry and Appearance from Monocular Images [94.49117671450531]
最先端の3D生成モデルは、合成に神経的な3Dボリューム表現を使用するGANである。
本稿では,単分子観察だけで物体の絡み合ったモデルを学ぶことができる3D GANを設計する。
論文 参考訳(メタデータ) (2022-03-29T22:03:18Z) - Pop-Out Motion: 3D-Aware Image Deformation via Learning the Shape
Laplacian [58.704089101826774]
形状分類と変形型に最小限の制約を課した3次元画像変形法を提案する。
点雲として表される3次元再構成の基底体積のラプラシアン形状を予測するために,教師付き学習に基づくアプローチを採用する。
実験では,2次元キャラクタと人間の衣料画像の変形実験を行った。
論文 参考訳(メタデータ) (2022-03-29T04:57:18Z) - Rotation Equivariant 3D Hand Mesh Generation from a Single RGB Image [1.8692254863855962]
2次元RGB画像から3次元手メッシュを生成する回転同変モデルを開発した。
これにより、手入力画像が回転されると、生成されたメッシュが対応する回転を行うことが保証される。
論文 参考訳(メタデータ) (2021-11-25T11:07:27Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Neural Articulated Radiance Field [90.91714894044253]
本稿では,画像から学習した明瞭な物体に対する新しい変形可能な3次元表現であるニューラルArticulated Radiance Field(NARF)を提案する。
実験の結果,提案手法は効率的であり,新しいポーズにうまく一般化できることがわかった。
論文 参考訳(メタデータ) (2021-04-07T13:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。