論文の概要: STDG: Semi-Teacher-Student Training Paradigram for Depth-guided
One-stage Scene Graph Generation
- arxiv url: http://arxiv.org/abs/2309.08179v1
- Date: Fri, 15 Sep 2023 06:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:43:26.552789
- Title: STDG: Semi-Teacher-Student Training Paradigram for Depth-guided
One-stage Scene Graph Generation
- Title(参考訳): STDG: 深層誘導ワンステージグラフ生成のための半教師学習パラダイグラム
- Authors: Xukun Zhou, Zhenbo Song, Jun He, Hongyan Liu, Zhaoxin Fan
- Abstract要約: STDGはAvant-garde Depth-Guided One-Stage Scene Graph Generationの方法論である。
STDGの革新的なアーキテクチャは、カスタムビルドモジュールのトリアードである。
実験により,本手法は1段階のシーングラフ生成ベースラインの性能を大幅に向上させることを確認した。
- 参考スコア(独自算出の注目度): 12.966573395667329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scene Graph Generation is a critical enabler of environmental comprehension
for autonomous robotic systems. Most of existing methods, however, are often
thwarted by the intricate dynamics of background complexity, which limits their
ability to fully decode the inherent topological information of the
environment. Additionally, the wealth of contextual information encapsulated
within depth cues is often left untapped, rendering existing approaches less
effective. To address these shortcomings, we present STDG, an avant-garde
Depth-Guided One-Stage Scene Graph Generation methodology. The innovative
architecture of STDG is a triad of custom-built modules: The Depth Guided HHA
Representation Generation Module, the Depth Guided Semi-Teaching Network
Learning Module, and the Depth Guided Scene Graph Generation Module. This
trifecta of modules synergistically harnesses depth information, covering all
aspects from depth signal generation and depth feature utilization, to the
final scene graph prediction. Importantly, this is achieved without imposing
additional computational burden during the inference phase. Experimental
results confirm that our method significantly enhances the performance of
one-stage scene graph generation baselines.
- Abstract(参考訳): シーングラフ生成は自律ロボットシステムにおける環境理解の重要な実現要因である。
しかし、既存の手法の多くは、環境に固有のトポロジー情報を完全に解読する能力を制限する背景複雑性の複雑なダイナミクスによって妨げられることが多い。
さらに、奥行きの手がかりにカプセル化されたコンテキスト情報が豊富に残され、既存のアプローチでは効果が低下することが多い。
これらの欠点に対処するために,前衛的深さ誘導の一段階グラフ生成手法であるstdgを提案する。
STDGの革新的なアーキテクチャは、Depth Guided HHA表現生成モジュール、Depth Guided Semi-Teaching Network Learningモジュール、Depth Guided Scene Graph Generationモジュールの3つのカスタムビルドモジュールである。
このモジュールのトリフェクトは、深度信号生成や深度特徴利用から最終シーングラフ予測まで、すべての側面をカバーする深度情報を相乗的に活用する。
重要なことに、これは推論フェーズ中に追加の計算負荷を課すことなく達成される。
実験により,一段階のシーングラフ生成ベースラインの性能が著しく向上することを確認した。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - RigNet++: Semantic Assisted Repetitive Image Guided Network for Depth
Completion [31.70022495622075]
画像案内ネットワークにおける繰り返し設計を探索し、徐々に十分に深度を復元する。
前者では,複雑な環境の識別画像の特徴を抽出するために,高密度繰り返し時間ガラスネットワーク(DRHN)を設計する。
後者では,動的畳み込みに基づく反復誘導(RG)モジュールを提案する。
さらに,領域認識型空間伝搬ネットワーク(RASPN)を提案する。
論文 参考訳(メタデータ) (2023-09-01T09:11:20Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - DepthGAN: GAN-based Depth Generation of Indoor Scenes from Semantic
Layouts [8.760217259912231]
入力としての意味的レイアウトのみを持つ深度マップを生成する新しい方法であるDepthGANを提案する。
本稿では,DepthGANが,深度生成タスクにおける定量的結果と視覚効果の両方において優れた性能を発揮することを示す。
また,3次元屋内シーンを,合理的な構造と空間的整合性を持った深度マップによって再構成できることも示した。
論文 参考訳(メタデータ) (2022-03-22T04:18:45Z) - Unsupervised Single-shot Depth Estimation using Perceptual
Reconstruction [0.0]
この研究は、生成ニューラルネットワークの分野における最新の進歩を示し、それらを活用して完全に教師なしの単発深度合成を行う。
RGB-to-deepthとdeep-to-RGB転送用の2つのジェネレータを実装し,Wasserstein-1距離と新しい知覚再構成項を用いて同時に最適化した。
本研究で得られた成果は、実世界のアプリケーションにおいて、教師なし単発深度推定の大きな可能性を示している。
論文 参考訳(メタデータ) (2022-01-28T15:11:34Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Semantically-Guided Representation Learning for Self-Supervised
Monocular Depth [40.49380547487908]
本稿では,自己教師付き表現学習を指導するために,事前訓練型セマンティックセマンティック・セマンティクス・ネットワークを利用した新しいアーキテクチャを提案する。
本手法は,全画素,細粒度細部,意味カテゴリーごとの自己教師型単眼深度予測のための技術の現状を改善した。
論文 参考訳(メタデータ) (2020-02-27T18:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。