論文の概要: UniSG^GA: A 3D scenegraph powered by Geometric Algebra unifying
geometry, behavior and GNNs towards generative AI
- arxiv url: http://arxiv.org/abs/2306.10621v1
- Date: Sun, 18 Jun 2023 19:01:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 19:35:29.368613
- Title: UniSG^GA: A 3D scenegraph powered by Geometric Algebra unifying
geometry, behavior and GNNs towards generative AI
- Title(参考訳): UniSG^GA:Geometric Algebraを用いた3Dシーングラフによる幾何学・行動・GNNの創成AIへの応用
- Authors: Manos Kamarianakis, Antonis Protopsaltis, Dimitris Angelis, Paul
Zikas, Mike Kentros, George Papagiannakis
- Abstract要約: UniSGGAは3Dシーンの振る舞いと幾何学的データを組み込んだ,新たな統合されたシーングラフ構造である。
グラフニューラルネットワーク(GNN)をシームレスに統合し、生成タスク中に3Dシーングラフ(3D-SG)を変換する際の課題に対処するように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents the introduction of UniSG^GA, a novel integrated
scenegraph structure, that to incorporates behavior and geometry data on a 3D
scene. It is specifically designed to seamlessly integrate Graph Neural
Networks (GNNs) and address the challenges associated with transforming a 3D
scenegraph (3D-SG) during generative tasks. To effectively capture and preserve
the topological relationships between objects in a simplified way, within the
graph representation, we propose UniSG^GA, that seamlessly integrates Geometric
Algebra (GA) forms. This novel approach enhances the overall performance and
capability of GNNs in handling generative and predictive tasks, opening up new
possibilities and aiming to lay the foundation for further exploration and
development of graph-based generative AI models that can effectively
incorporate behavior data for enhanced scene generation and synthesis.
- Abstract(参考訳): 本研究は,3次元シーンの挙動と幾何学的データを組み込んだ,新たな統合されたシーングラフ構造UniSG^GAの導入について述べる。
グラフニューラルネットワーク(GNN)をシームレスに統合し、生成タスク中に3Dシーングラフ(3D-SG)を変換する際の課題に対処するように設計されている。
グラフ表現において,物体間のトポロジ的関係を効率的に把握し,保存するために,幾何学的代数形式をシームレスに統合するUniSG^GAを提案する。
この新しいアプローチは、生成的および予測的タスクの処理におけるGNNの全体的なパフォーマンスと能力を高め、新たな可能性を開き、シーン生成と合成を効果的に活用できるグラフベースの生成AIモデルのさらなる探索と開発の基礎を築くことを目的としている。
関連論文リスト
- NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - GaussianDreamerPro: Text to Manipulable 3D Gaussians with Highly Enhanced Quality [99.63429416013713]
3D-GSは現実世界のシーンの再構築とレンダリングで大きな成功を収めた。
高いレンダリング品質を生成タスクに転送するために、テキストから3Dガウス資産を生成するための一連の研究が進められている。
生成品質を向上させるため,GaussianDreamerProという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-26T16:12:09Z) - GeoLRM: Geometry-Aware Large Reconstruction Model for High-Quality 3D Gaussian Generation [65.33726478659304]
GeoLRM(Geometry-Aware Large Restruction Model)は、512kガウスと21の入力画像で11GBのGPUメモリで高品質な資産を予測できる手法である。
従来の作品では、3D構造の本質的な空間性は無視されており、3D画像と2D画像の間の明示的な幾何学的関係は利用されていない。
GeoLRMは、3Dポイントを直接処理し、変形可能なクロスアテンション機構を使用する新しい3D対応トランスフォーマー構造を導入することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-06-21T17:49:31Z) - GeoGen: Geometry-Aware Generative Modeling via Signed Distance Functions [22.077366472693395]
単一ビューコレクションから3次元形状と画像を合成するための新しい生成手法を提案する。
ニューラルラディアンス場を用いたボリュームレンダリングを用いることで、生成した幾何学はノイズが多く、制約がないという重要な制限を継承する。
エンド・ツー・エンドで訓練された新しいSDFベースの3D生成モデルであるGeoGenを提案する。
論文 参考訳(メタデータ) (2024-06-06T17:00:10Z) - GeoGS3D: Single-view 3D Reconstruction via Geometric-aware Diffusion Model and Gaussian Splatting [81.03553265684184]
単視点画像から詳細な3Dオブジェクトを再構成するフレームワークであるGeoGS3Dを紹介する。
本稿では,GDS(Gaussian Divergence Significance)という新しい指標を提案する。
実験により、GeoGS3Dはビュー間で高い一貫性を持つ画像を生成し、高品質な3Dオブジェクトを再構成することを示した。
論文 参考訳(メタデータ) (2024-03-15T12:24:36Z) - Hyper-3DG: Text-to-3D Gaussian Generation via Hypergraph [20.488040789522604]
本稿では,ハイパーグラフ(Hyper-3DG)を用いた3次元ガウス生成法を提案する。
本フレームワークは, 凝集度を最適化し, 劣化を効果的に回避し, 微細に生成した3Dオブジェクトの創出を可能にする。
論文 参考訳(メタデータ) (2024-03-14T09:59:55Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Self-supervised Learning for Enhancing Geometrical Modeling in 3D-Aware
Generative Adversarial Network [42.16520614686877]
3D-GANは、メッシュの不完全性や穴などの3D幾何学的モデリングにおいて、アーティファクトを示す。
これらの欠点は、主にアノテーション付き3Dデータの可用性が制限されているためである。
本稿では,任意の3D-GANの補助的損失を補うセルフ・スーパーバイザード・ラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T04:55:33Z) - Geometry-Contrastive Transformer for Generalized 3D Pose Transfer [95.56457218144983]
この研究の直感は、与えられたメッシュ間の幾何学的不整合を強力な自己認識機構で知覚することである。
本研究では,グローバルな幾何学的不整合に対する3次元構造的知覚能力を有する新しい幾何学コントラスト変換器を提案する。
本稿では, クロスデータセット3次元ポーズ伝達タスクのための半合成データセットとともに, 潜時等尺正則化モジュールを提案する。
論文 参考訳(メタデータ) (2021-12-14T13:14:24Z) - Dense Graph Convolutional Neural Networks on 3D Meshes for 3D Object
Segmentation and Classification [0.0]
本稿では3次元メッシュ上でのグラフ畳み込みニューラルネットワーク(GCN)の設計について述べる。
メッシュの顔を基本処理単位とし、各ノードが顔に対応するグラフとして3Dメッシュを表現する。
論文 参考訳(メタデータ) (2021-06-30T02:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。