論文の概要: Octree Transformer: Autoregressive 3D Shape Generation on Hierarchically
Structured Sequences
- arxiv url: http://arxiv.org/abs/2111.12480v1
- Date: Wed, 24 Nov 2021 13:17:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 14:59:24.144647
- Title: Octree Transformer: Autoregressive 3D Shape Generation on Hierarchically
Structured Sequences
- Title(参考訳): Octree Transformer:階層構造に基づく自己回帰3次元形状生成
- Authors: Moritz Ibing, Gregor Kobsik, Leif Kobbelt
- Abstract要約: 自己回帰モデルは、NLPテキスト生成タスクにおいて非常に強力であることが証明されている。
本稿では,シーケンス長を大幅に削減する適応圧縮方式を提案する。
形状生成における最先端技術との比較により,本モデルの性能を実証する。
- 参考スコア(独自算出の注目度): 11.09257948735229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autoregressive models have proven to be very powerful in NLP text generation
tasks and lately have gained popularity for image generation as well. However,
they have seen limited use for the synthesis of 3D shapes so far. This is
mainly due to the lack of a straightforward way to linearize 3D data as well as
to scaling problems with the length of the resulting sequences when describing
complex shapes. In this work we address both of these problems. We use octrees
as a compact hierarchical shape representation that can be sequentialized by
traversal ordering. Moreover, we introduce an adaptive compression scheme, that
significantly reduces sequence lengths and thus enables their effective
generation with a transformer, while still allowing fully autoregressive
sampling and parallel training. We demonstrate the performance of our model by
comparing against the state-of-the-art in shape generation.
- Abstract(参考訳): 自動回帰モデルは、NLPテキスト生成タスクにおいて非常に強力であることが証明され、最近では画像生成にも人気がある。
しかし、これまでは3次元形状の合成に限定的に使用されてきた。
これは主に、3dデータをリニア化するための簡単な方法の欠如と、複雑な形状を記述する際に生じるシーケンスの長さによる問題の拡大が原因である。
この作業では、これら2つの問題に対処する。
交差順序によって逐次化できるコンパクトな階層形状表現として八重項を用いる。
さらに,完全自己回帰サンプリングと並列トレーニングを可能としながら,シーケンス長を大幅に削減し,トランスによる効果的な生成を可能にする適応圧縮方式を提案する。
形状生成における最新技術との比較により, モデルの性能を示す。
関連論文リスト
- Pushing Auto-regressive Models for 3D Shape Generation at Capacity and
Scalability [121.44324465222498]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - Triplane Meets Gaussian Splatting: Fast and Generalizable Single-View 3D
Reconstruction with Transformers [37.14235383028582]
本稿では,フィードフォワード推論を用いて,単一画像から3次元モデルを効率よく生成する,一視点再構成のための新しい手法を提案する。
提案手法では,2つのトランスフォーマーネットワーク,すなわちポイントデコーダとトリプレーンデコーダを用いて,ハイブリッドトリプレーン・ガウス中間表現を用いて3次元オブジェクトを再構成する。
論文 参考訳(メタデータ) (2023-12-14T17:18:34Z) - Learning Versatile 3D Shape Generation with Improved AR Models [91.87115744375052]
自己回帰(AR)モデルはグリッド空間の関節分布をモデル化することにより2次元画像生成において印象的な結果を得た。
本稿では3次元形状生成のための改良された自己回帰モデル(ImAM)を提案する。
論文 参考訳(メタデータ) (2023-03-26T12:03:18Z) - Lformer: Text-to-Image Generation with L-shape Block Parallel Decoding [111.16221796950126]
半自己回帰型テキスト・画像生成モデルであるLformerを提案する。
画像トークンの2次元構造を利用することで、Lformerは既存のTransformerベースの手法よりも高速に実現できる。
Lformerは、微調整を必要とせずに画像を編集できる。
論文 参考訳(メタデータ) (2023-03-07T11:10:22Z) - A Scalable Combinatorial Solver for Elastic Geometrically Consistent 3D
Shape Matching [69.14632473279651]
本稿では,3次元形状間の幾何学的一貫したマッピング空間をグローバルに最適化するスケーラブルなアルゴリズムを提案する。
従来の解法よりも数桁高速なラグランジュ双対問題と結合した新しい原始問題を提案する。
論文 参考訳(メタデータ) (2022-04-27T09:47:47Z) - Autoregressive 3D Shape Generation via Canonical Mapping [92.91282602339398]
トランスフォーマーは、画像、音声、テキスト生成など、様々な生成タスクで顕著なパフォーマンスを示している。
本稿では,変圧器のパワーをさらに活用し,それを3Dポイントクラウド生成のタスクに活用することを目的とする。
条件付き形状生成への応用として,本モデルを簡単にマルチモーダル形状完成に拡張することができる。
論文 参考訳(メタデータ) (2022-04-05T03:12:29Z) - Deep Marching Tetrahedra: a Hybrid Representation for High-Resolution 3D
Shape Synthesis [90.26556260531707]
DMTetは粗いボクセルのような単純なユーザーガイドを用いて高解像度の3次元形状を合成できる条件付き生成モデルである。
メッシュなどの明示的な表現を直接生成する深部3次元生成モデルとは異なり、我々のモデルは任意の位相で形状を合成することができる。
論文 参考訳(メタデータ) (2021-11-08T05:29:35Z) - Combinatorial 3D Shape Generation via Sequential Assembly [40.2815083025929]
幾何学的プリミティブによる連続的な組み立ては、ロボット工学や3D視覚において注目を集めている。
本稿では,この結果が実現可能な膨大な組み合わせによって引き起こされることを緩和する3次元形状生成フレームワークを提案する。
実験により,本手法は3次元形状の生成に成功し,より現実的な生成過程をシミュレートすることを示した。
論文 参考訳(メタデータ) (2020-04-16T01:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。