論文の概要: USAM-Net: A U-Net-based Network for Improved Stereo Correspondence and Scene Depth Estimation using Features from a Pre-trained Image Segmentation network
- arxiv url: http://arxiv.org/abs/2503.14950v1
- Date: Wed, 19 Mar 2025 07:29:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:25:33.749183
- Title: USAM-Net: A U-Net-based Network for Improved Stereo Correspondence and Scene Depth Estimation using Features from a Pre-trained Image Segmentation network
- Title(参考訳): USAM-Net:事前訓練画像分割ネットワークの特徴を用いたステレオ対応とシーン深さ推定のためのU-Netベースネットワーク
- Authors: Joseph Emmanuel DL Dayo, Prospero C. Naval Jr,
- Abstract要約: 本稿では,立体画像入力とセマンティックセグメンテーションマップを統合し,深度推定性能を向上させる新しい畳み込みニューラルネットワークを提案する。
USAM-Netは、GD(Global difference)の3.61%、EPE(End-Point Error)の0.88など、優れたパフォーマンス指標を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The increasing demand for high-accuracy depth estimation in autonomous driving and augmented reality applications necessitates advanced neural architectures capable of effectively leveraging multiple data modalities. In this context, we introduce the Unified Segmentation Attention Mechanism Network (USAM-Net), a novel convolutional neural network that integrates stereo image inputs with semantic segmentation maps and attention to enhance depth estimation performance. USAM-Net employs a dual-pathway architecture, which combines a pre-trained segmentation model (SAM) and a depth estimation model. The segmentation pathway preprocesses the stereo images to generate semantic masks, which are then concatenated with the stereo images as inputs to the depth estimation pathway. This integration allows the model to focus on important features such as object boundaries and surface textures which are crucial for accurate depth perception. Empirical evaluation on the DrivingStereo dataset demonstrates that USAM-Net achieves superior performance metrics, including a Global Difference (GD) of 3.61\% and an End-Point Error (EPE) of 0.88, outperforming traditional models such as CFNet, SegStereo, and iResNet. These results underscore the effectiveness of integrating segmentation information into stereo depth estimation tasks, highlighting the potential of USAM-Net in applications demanding high-precision depth data.
- Abstract(参考訳): 自律運転および拡張現実アプリケーションにおける高精度深度推定の需要の増加は、複数のデータモダリティを効果的に活用できる高度なニューラルアーキテクチャを必要としている。
本稿では,ステレオ画像入力とセマンティックセグメンテーションマップを統合し,深度推定性能を高める新しい畳み込みニューラルネットワークである統一セグメンテーション注意機構ネットワーク(USAM-Net)を紹介する。
USAM-Netは、事前訓練されたセグメンテーションモデル(SAM)と深さ推定モデルを組み合わせたデュアルパスウェイアーキテクチャを採用している。
セグメンテーション経路はステレオ画像を前処理してセマンティックマスクを生成し、そこからステレオ画像と連結して深さ推定経路への入力を行う。
この統合により、モデルは正確な深度知覚に不可欠なオブジェクト境界や表面テクスチャといった重要な特徴に焦点を合わせることができる。
DrivingStereoデータセットに関する実証的な評価によると、USAM-Netは、GD(Global difference)が3.61\%、EPE(End-Point Error)が0.88で、CFNet、SegStereo、iResNetといった従来のモデルよりも優れている。
これらの結果は,高精度深度データを必要とするアプリケーションにおけるUSAM-Netの可能性を強調し,セグメンテーション情報をステレオ深度推定タスクに統合することの有効性を裏付けるものである。
関連論文リスト
- Optimized Unet with Attention Mechanism for Multi-Scale Semantic Segmentation [8.443350618722564]
本稿では,注目機構と組み合わさった改良されたUnetモデルを提案する。
チャネルアテンションと空間アテンションモジュールを導入し、重要な特徴にフォーカスするモデルの能力を強化する。
改良されたモデルは、mIoUとピクセル精度(PA)でよく機能し、それぞれ76.5%と95.3%に達した。
論文 参考訳(メタデータ) (2025-02-06T06:51:23Z) - LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - FSNet: Redesign Self-Supervised MonoDepth for Full-Scale Depth
Prediction for Autonomous Driving [18.02943016671203]
本研究では,自律走行シーンの高精度なスケール認識深度予測のための包括的自己教師型フレームワークを提案する。
特に,FSNetと呼ばれるフルスケール深度予測ネットワークを導入する。
FSNetを使えば、ロボットや車両は1台のカメラしか持たず、訓練用画像フレームやカメラポーズのシーケンスを収集し、余分なラベル付け作業や3Dデータなしで環境の正確な3D深度を推測することができる。
論文 参考訳(メタデータ) (2023-04-21T03:17:04Z) - 3DVNet: Multi-View Depth Prediction and Volumetric Refinement [68.68537312256144]
3DVNetは、新しいマルチビューステレオ(MVS)深度予測法である。
私たちのキーとなるアイデアは、粗い深度予測を反復的に更新する3Dシーンモデリングネットワークを使用することです。
本手法は, 深度予測と3次元再構成の両指標において, 最先端の精度を超えることを示す。
論文 参考訳(メタデータ) (2021-12-01T00:52:42Z) - MDA-Net: Multi-Dimensional Attention-Based Neural Network for 3D Image
Segmentation [4.221871357181261]
マルチ次元アテンションネットワーク(MDA-Net)を提案し,スライスワイド,空間,チャネルワイドアテンションを効率よくU-Netネットワークに統合する。
MICCAI iSegおよびIBSRデータセット上のモデルを評価し、実験結果が既存の方法よりも一貫した改善を示した。
論文 参考訳(メタデータ) (2021-05-10T16:58:34Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - ES-Net: An Efficient Stereo Matching Network [4.8986598953553555]
既存のステレオマッチングネットワークは通常、性能を改善するために遅くて計算コストのかかる3D畳み込みを使用する。
本稿では,高性能かつ効率的な推定を実現する効率的なステレオネットワーク(esnet)を提案する。
論文 参考訳(メタデータ) (2021-03-05T20:11:39Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - SideInfNet: A Deep Neural Network for Semi-Automatic Semantic
Segmentation with Side Information [83.03179580646324]
本稿では,新たなディープニューラルネットワークアーキテクチャであるSideInfNetを提案する。
画像から学習した機能とユーザアノテーションから抽出したサイド情報を統合する。
提案手法を評価するために,提案したネットワークを3つのセマンティックセグメンテーションタスクに適用し,ベンチマークデータセットに対する広範な実験を行った。
論文 参考訳(メタデータ) (2020-02-07T06:10:54Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。