論文の概要: Unsupervised Traffic Scene Generation with Synthetic 3D Scene Graphs
- arxiv url: http://arxiv.org/abs/2303.08473v1
- Date: Wed, 15 Mar 2023 09:26:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:19:22.823513
- Title: Unsupervised Traffic Scene Generation with Synthetic 3D Scene Graphs
- Title(参考訳): 合成3次元シーングラフを用いた教師なし交通シーン生成
- Authors: Artem Savkin, Rachid Ellouze, Nassir Navab, Federico Tombari
- Abstract要約: 本稿では,ドメイン不変シーン表現に基づくトラフィックシーンの画像をレンダリングせずに直接合成する手法を提案する。
具体的には、内部表現として合成シーングラフに依存し、現実的な交通シーン合成のための教師なしニューラルネットワークアーキテクチャを導入する。
- 参考スコア(独自算出の注目度): 83.9783063609389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image synthesis driven by computer graphics achieved recently a remarkable
realism, yet synthetic image data generated this way reveals a significant
domain gap with respect to real-world data. This is especially true in
autonomous driving scenarios, which represent a critical aspect for overcoming
utilizing synthetic data for training neural networks. We propose a method
based on domain-invariant scene representation to directly synthesize traffic
scene imagery without rendering. Specifically, we rely on synthetic scene
graphs as our internal representation and introduce an unsupervised neural
network architecture for realistic traffic scene synthesis. We enhance
synthetic scene graphs with spatial information about the scene and demonstrate
the effectiveness of our approach through scene manipulation.
- Abstract(参考訳): コンピュータグラフィックスによって駆動される画像合成は最近驚くべき現実主義を達成したが、この方法で生成された合成画像データは、実世界データに関して大きな領域ギャップを示している。
これは、ニューラルネットワークのトレーニングに合成データを活用する上で重要な側面である、自律運転シナリオに特に当てはまる。
本稿では,トラヒックシーン画像を直接レンダリングすることなく合成するドメイン不変シーン表現に基づく手法を提案する。
具体的には、合成シーングラフを内部表現として、現実的なトラフィックシーン合成のための教師なしニューラルネットワークアーキテクチャを導入します。
シーンに関する空間情報を含む合成シーングラフを強化し,シーン操作によるアプローチの有効性を示す。
関連論文リスト
- Synthesizing Traffic Datasets using Graph Neural Networks [2.444217495283211]
本稿では,2次元交通シミュレーションと記録ジャンクション映像からフォトリアリスティックな画像を作成することによって,この「シムリアル」ギャップを埋める新しい手法を提案する。
本稿では,現実的な都市交通画像の作成を容易にするために,条件付き生成適応ネットワークとグラフニューラルネットワーク(GNN)を統合した新しい画像生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T13:24:19Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Leveraging Deepfakes to Close the Domain Gap between Real and Synthetic
Images in Facial Capture Pipelines [8.366597450893456]
我々は、パーソナライズされたアプリ内ビデオデータから3次元顔モデルを構築し、追跡するためのエンドツーエンドパイプラインを提案する。
本稿では,従来のコンピュータグラフィックスパイプラインにおける衝突アルゴリズムに典型的な階層的クラスタリングフレームワークに基づく自動データキュレーションと検索手法を提案する。
我々は、前述の技術を活用して、現実の地上真実データの必要性を回避するために、モーションキャプチャ回帰器のトレーニング方法を概説する。
論文 参考訳(メタデータ) (2022-04-22T15:09:49Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - Neural Scene Graphs for Dynamic Scenes [57.65413768984925]
動的シーンをシーングラフに分解する最初のニューラルレンダリング手法を提案する。
我々は暗黙的に符号化されたシーンと、単一の暗黙の関数でオブジェクトを記述するために共同で学習された潜在表現を組み合わせる。
論文 参考訳(メタデータ) (2020-11-20T12:37:10Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - From Real to Synthetic and Back: Synthesizing Training Data for
Multi-Person Scene Understanding [0.7519872646378835]
特定のシナリオで対話する複数の人物の自然に見える画像を合成する手法を提案する。
これらの画像は、合成データの利点の恩恵を受けている。
合成領域と実領域のギャップを低減するため,以下のステップからなるパイプラインを導入する。
論文 参考訳(メタデータ) (2020-06-03T09:02:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。