論文の概要: Neural Neural Textures Make Sim2Real Consistent
- arxiv url: http://arxiv.org/abs/2206.13500v1
- Date: Mon, 27 Jun 2022 17:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 14:16:24.770322
- Title: Neural Neural Textures Make Sim2Real Consistent
- Title(参考訳): sim2realを一貫性を持たせるニューラルネットワークテクスチャ
- Authors: Ryan Burgert, Jinghuan Shang, Xiang Li, and Michael Ryoo
- Abstract要約: 本稿では,不確定な時間的一貫性を実現するために,画像翻訳と微分可能レンダリングを組み合わせた新しい手法を提案する。
我々はこのアルゴリズムを TRITON (Texture Recovering Image Translation Network): 教師なし、エンドツーエンド、ステートレスなsim2realアルゴリズムと呼ぶ。
- 参考スコア(独自算出の注目度): 3.969745230886942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unpaired image translation algorithms can be used for sim2real tasks, but
many fail to generate temporally consistent results. We present a new approach
that combines differentiable rendering with image translation to achieve
temporal consistency over indefinite timescales, using surface consistency
losses and \emph{neural neural textures}. We call this algorithm TRITON
(Texture Recovering Image Translation Network): an unsupervised, end-to-end,
stateless sim2real algorithm that leverages the underlying 3D geometry of input
scenes by generating realistic-looking learnable neural textures. By settling
on a particular texture for the objects in a scene, we ensure consistency
between frames statelessly. Unlike previous algorithms, TRITON is not limited
to camera movements -- it can handle the movement of objects as well, making it
useful for downstream tasks such as robotic manipulation.
- Abstract(参考訳): 非ペア画像変換アルゴリズムはsim2realタスクに使用できるが、時間的に一貫した結果が得られないものも多い。
本稿では,画像翻訳に微分可能レンダリングを併用して,表面の整合性損失と脳神経テクスチャを用いた時間的整合性を実現する手法を提案する。
このアルゴリズムをtriton (texture recoverying image translation network): 教師なし、エンドツーエンド、ステートレスsim2realアルゴリズムで、リアルに見える学習可能なニューラルネットワークテクスチャを生成することで、入力シーンの3dジオメトリを活用する。
シーン内のオブジェクトの特定のテクスチャにセッティングすることで、フレーム間の一貫性をステートレスに確保する。
従来のアルゴリズムとは異なり、TRITONはカメラの動きに限らず、物体の動きも扱えるので、ロボット操作のような下流のタスクにも役立ちます。
関連論文リスト
- Mesh Neural Cellular Automata [62.101063045659906]
本稿では,UVマップを必要とせずに3次元メッシュ上で動的テクスチャを直接合成するメッシュニューラルセルオートマタ(MeshNCA)を提案する。
IcosphereメッシュでのみトレーニングされたMeshNCAは、驚くべきテストタイムの一般化を示し、目に見えないメッシュ上でテクスチャをリアルタイムで合成する。
論文 参考訳(メタデータ) (2023-11-06T01:54:37Z) - Neural Textured Deformable Meshes for Robust Analysis-by-Synthesis [17.920305227880245]
本稿では, 近似解析を用いた三重視覚タスクを一貫した方法で定式化する。
実世界の画像で評価すると、従来のニューラルネットワークよりも、我々の分析バイシンセシスの方がはるかに堅牢であることが示される。
論文 参考訳(メタデータ) (2023-05-31T18:45:02Z) - NIKI: Neural Inverse Kinematics with Invertible Neural Networks for 3D
Human Pose and Shape Estimation [53.25973084799954]
両方向誤差をモデル化したNIKI(Neural Inverse Kinematics with Invertible Neural Network)を提案する。
NIKIは、非可逆ネットワークによる前処理と逆処理の両方から学習することができる。
論文 参考訳(メタデータ) (2023-05-15T12:13:24Z) - Mesh2Tex: Generating Mesh Textures from Image Queries [45.32242590651395]
特に、実際の物体の画像からのテクスチャ化されたステージテクスチャは、実際の画像観察と一致する。
本稿では,非相関な3次元オブジェクト形状のコレクションからオブジェクト形状を学習するMesh2Texを紹介する。
論文 参考訳(メタデータ) (2023-04-12T13:58:25Z) - TEGLO: High Fidelity Canonical Texture Mapping from Single-View Images [1.4502611532302039]
画像の単一ビューから3次元表現を学習するためのTEGLO(Textured EG3D-GLO)を提案する。
我々は, 条件付きニューラルレージアンスフィールド(NeRF)を, 明示的な3次元監視なしに訓練することで実現した。
このようなマッピングによって、共有トポロジのメッシュを必要としないテクスチャ転送やテクスチャ編集が可能であることを実証する。
論文 参考訳(メタデータ) (2023-03-24T01:52:03Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - NeuTex: Neural Texture Mapping for Volumetric Neural Rendering [48.83181790635772]
本稿では,ジオメトリ-連続3次元ボリューム-出現-連続2次元テクスチャマップとして表現-を明示的に切り離す手法を提案する。
我々は,この表現を多視点画像監視のみを用いて再構成し,高品質なレンダリング結果を生成することを実証した。
論文 参考訳(メタデータ) (2021-03-01T05:34:51Z) - Novel-View Human Action Synthesis [39.72702883597454]
対象視点を合成する新しい3D推論を提案する。
まず,対象物体の3次元メッシュを推定し,粗いテクスチャを2次元画像からメッシュに転送する。
本研究では, 局地的, 地域的, グローバルなテクスチャを伝達することで, 半密度のテクスチャメッシュを創出する。
論文 参考訳(メタデータ) (2020-07-06T15:11:51Z) - Deep Geometric Texture Synthesis [83.9404865744028]
幾何学的テクスチャを合成するための新しい枠組みを提案する。
単一の参照3Dモデルの局所的な近傍からテクスチャ統計を学習する。
我々のネットワークはメッシュ頂点を任意の方向に変位させ、幾何学的テクスチャの合成を可能にする。
論文 参考訳(メタデータ) (2020-06-30T19:36:38Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。