論文の概要: SSGP: Sparse Spatial Guided Propagation for Robust and Generic
Interpolation
- arxiv url: http://arxiv.org/abs/2008.09346v2
- Date: Wed, 4 Nov 2020 09:06:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:47:01.590181
- Title: SSGP: Sparse Spatial Guided Propagation for Robust and Generic
Interpolation
- Title(参考訳): ssgp:ロバストおよび汎用補間のためのスパース空間誘導伝搬
- Authors: Ren\'e Schuster, Oliver Wasenm\"uller, Christian Unger, Didier
Stricker
- Abstract要約: 密度の高い目標解像度へのスパース画素情報の補間は、コンピュータビジョンにおける複数の分野にまたがる応用を見出す。
我々の研究は、疎密な情報に対する厳密なガイダンスの問題に対処する、最新のディープ・コンプリート(deep completion)の傾向にインスパイアされている。
我々は、光学フロー、シーンフロー、深さ補完といった様々な問題に適用可能な、汎用的なクロスドメインアーキテクチャを作成します。
- 参考スコア(独自算出の注目度): 15.71870284091698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpolation of sparse pixel information towards a dense target resolution
finds its application across multiple disciplines in computer vision.
State-of-the-art interpolation of motion fields applies model-based
interpolation that makes use of edge information extracted from the target
image. For depth completion, data-driven learning approaches are widespread.
Our work is inspired by latest trends in depth completion that tackle the
problem of dense guidance for sparse information. We extend these ideas and
create a generic cross-domain architecture that can be applied for a multitude
of interpolation problems like optical flow, scene flow, or depth completion.
In our experiments, we show that our proposed concept of Sparse Spatial Guided
Propagation (SSGP) achieves improvements to robustness, accuracy, or speed
compared to specialized algorithms.
- Abstract(参考訳): 密度の高い目標解像度へのスパース画素情報の補間は、コンピュータビジョンにおける複数の分野にわたる応用を見出す。
動き場の最先端の補間は、対象画像から抽出されたエッジ情報を利用するモデルに基づく補間を適用する。
ディープ補完に関しては、データ駆動学習アプローチが広く使われている。
私たちの研究は、疎情報に対する密集したガイダンスの問題に取り組む、最近の奥行き完了の傾向にインスパイアされています。
このようなアイデアを拡張して,光学フローやシーンフロー,奥行き完了といった多数の補間問題に適用可能な,汎用的なクロスドメインアーキテクチャを構築する。
本実験では,提案するsparse spatial guided propagation (ssgp) の概念により,特殊アルゴリズムと比較して頑健性,精度,速度が向上することを示す。
関連論文リスト
- PGNeXt: High-Resolution Salient Object Detection via Pyramid Grafting Network [24.54269823691119]
本稿では、データセットとネットワークフレームワークの両方の観点から、より難解な高分解能サルエントオブジェクト検出(HRSOD)について述べる。
HRSODデータセットの欠如を補うため、UHRSDと呼ばれる大規模高解像度の高分解能物体検出データセットを慎重に収集した。
すべての画像はピクセルレベルで微妙にアノテートされ、以前の低解像度のSODデータセットをはるかに上回っている。
論文 参考訳(メタデータ) (2024-08-02T09:31:21Z) - Multi-view Aggregation Network for Dichotomous Image Segmentation [76.75904424539543]
Dichotomous Image (DIS) は近年,高解像度自然画像からの高精度物体分割に向けて出現している。
既存の手法は、グローバルなローカライゼーションと局所的な洗練を徐々に完了させるために、退屈な複数のエンコーダ・デコーダストリームとステージに依存している。
これに触発されて、我々は多視点オブジェクト認識問題としてdisをモデル化し、擬似多視点アグリゲーションネットワーク(MVANet)を提供する。
一般的なdis-5Kデータセットの実験では、我々のMVANetは精度と速度の両方で最先端の手法を大きく上回っている。
論文 参考訳(メタデータ) (2024-04-11T03:00:00Z) - SwinMTL: A Shared Architecture for Simultaneous Depth Estimation and Semantic Segmentation from Monocular Camera Images [4.269350826756809]
本研究では,一台のカメラを用いた同時深度推定とセマンティックセマンティックセグメンテーションが可能な,革新的なマルチタスク学習フレームワークを提案する。
提案手法は共有エンコーダデコーダアーキテクチャに基づいており,計算効率を損なうことなく,深度推定とセマンティックセグメンテーションタスクの精度を向上させるために様々な手法を統合する。
このフレームワークは、屋外のCityscapesデータセットと屋内のNYU Depth V2データセットという2つのデータセットで徹底的に評価されている。
論文 参考訳(メタデータ) (2024-03-15T20:04:27Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Unsupervised Spike Depth Estimation via Cross-modality Cross-domain Knowledge Transfer [53.413305467674434]
スパイク深度推定をサポートするためにオープンソースのRGBデータを導入し,そのアノテーションと空間情報を活用する。
教師なしスパイク深さ推定を実現するために,クロスモーダルクロスドメイン(BiCross)フレームワークを提案する。
提案手法は,RGB指向の教師なし深度推定法と比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-08-26T09:35:20Z) - USegScene: Unsupervised Learning of Depth, Optical Flow and Ego-Motion
with Semantic Guidance and Coupled Networks [31.600708674008384]
UegSceneは、ステレオカメラ画像の奥行き、光学的流れ、エゴモーション推定を意味的に導くためのフレームワークである。
一般的なKITTIデータセットを用いて,提案手法が他の手法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-07-15T13:25:47Z) - DenseGAP: Graph-Structured Dense Correspondence Learning with Anchor
Points [15.953570826460869]
2つの画像間の密接な対応を確立することは、基本的なコンピュータビジョンの問題である。
我々は、アンカーポイントに条件付きグラフ構造化ニューラルネットワークを用いたDense対応学習のための新しいソリューションであるDenseGAPを紹介する。
提案手法は,ほとんどのベンチマークにおいて対応学習の最先端化を図っている。
論文 参考訳(メタデータ) (2021-12-13T18:59:30Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - A Parallel Down-Up Fusion Network for Salient Object Detection in
Optical Remote Sensing Images [82.87122287748791]
光リモートセンシング画像(RSI)における有意な物体検出のための新しい並列ダウンアップフュージョンネットワーク(PDF-Net)を提案する。
In-pathの低レベル・高レベルな特徴とクロスパスの多解像度な特徴をフル活用して、多様なスケールのサルエントオブジェクトを識別し、散らかった背景を抑える。
ORSSDデータセットの実験により、提案したネットワークは定性的かつ定量的に最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T05:27:57Z) - Deformable spatial propagation network for depth completion [2.5306673456895306]
本稿では,各画素に対して異なる受容場と親和性行列を適応的に生成する変形可能な空間伝搬ネットワーク(DSPN)を提案する。
これにより、ネットワークは伝播のためのより少ないがより関連性の高い情報を得ることができる。
論文 参考訳(メタデータ) (2020-07-08T16:39:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。