論文の概要: Channel-Wise Attention-Based Network for Self-Supervised Monocular Depth
Estimation
- arxiv url: http://arxiv.org/abs/2112.13047v1
- Date: Fri, 24 Dec 2021 12:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 14:13:44.755191
- Title: Channel-Wise Attention-Based Network for Self-Supervised Monocular Depth
Estimation
- Title(参考訳): 自己監督型単眼深度推定のためのチャネルワイズアテンションに基づくネットワーク
- Authors: Jiaxing Yan, Hong Zhao, Penghui Bu, YuSheng Jin
- Abstract要約: 自己教師付き学習は単眼深度推定に非常に有望な結果を示した。
近年の研究では、シーン構造の明示的なモデリングや詳細情報の適切な処理が欠如している。
本稿では,チャネルワイド・アテンションに基づく奥行き推定ネットワーク(CADepth-Net)を提案する。
- 参考スコア(独自算出の注目度): 3.948385714371362
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning has shown very promising results for monocular depth
estimation. Scene structure and local details both are significant clues for
high-quality depth estimation. Recent works suffer from the lack of explicit
modeling of scene structure and proper handling of details information, which
leads to a performance bottleneck and blurry artefacts in predicted results. In
this paper, we propose the Channel-wise Attention-based Depth Estimation
Network (CADepth-Net) with two effective contributions: 1) The structure
perception module employs the self-attention mechanism to capture long-range
dependencies and aggregates discriminative features in channel dimensions,
explicitly enhances the perception of scene structure, obtains the better scene
understanding and rich feature representation. 2) The detail emphasis module
re-calibrates channel-wise feature maps and selectively emphasizes the
informative features, aiming to highlight crucial local details information and
fuse different level features more efficiently, resulting in more precise and
sharper depth prediction. Furthermore, the extensive experiments validate the
effectiveness of our method and show that our model achieves the
state-of-the-art results on the KITTI benchmark and Make3D datasets.
- Abstract(参考訳): 自己教師付き学習は単眼深度推定に非常に有望な結果を示した。
シーン構造と局所的詳細はどちらも高品質な深さ推定のための重要な手がかりである。
最近の研究は、シーン構造の明示的なモデリングの欠如と詳細情報の適切なハンドリングに苦しめられ、その結果、パフォーマンスボトルネックとぼやけたアーティファクトが予測結果に生じている。
本稿では,チャネルワイドアテンションに基づく深さ推定ネットワーク(CADepth-Net)を提案する。
1) この構造認識モジュールは, 長距離依存を捕捉し, チャネル次元における識別的特徴を集約する自己認識機構を用いて, シーン構造の認識を明示的に強化し, より優れたシーン理解とリッチな特徴表現を得る。
2) 細部強調モジュールは、チャンネルワイドの特徴マップを再分類し、情報的特徴を選択的に強調し、重要な局所的詳細情報を強調し、異なるレベルの特徴をより効率的に融合させ、より正確でシャープな深度予測を実現する。
さらに,本手法の有効性を検証し,KITTIベンチマークとMake3Dデータセットの最先端結果が得られたことを示す。
関連論文リスト
- Self-supervised Monocular Depth Estimation with Large Kernel Attention [30.44895226042849]
より詳細な情報を得るために,自己教師付き単眼深度推定ネットワークを提案する。
具体的には,長距離依存性をモデル化可能なカーネルアテンションに基づくデコーダを提案する。
提案手法は,KITTIデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-09-26T14:44:41Z) - Unsupervised Monocular Depth Estimation Based on Hierarchical Feature-Guided Diffusion [21.939618694037108]
教師なし単分子深度推定は、地上の真実を示さずに訓練できるため、広く注目を集めている。
我々は、教師なし単眼深度推定のために、生成ネットワーク間でよく収束する拡散モデルを用いる。
このモデルは深度分布の学習と解釈の能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-06-14T07:31:20Z) - Unsupervised Semantic Segmentation Through Depth-Guided Feature Correlation and Sampling [14.88236554564287]
本研究では,シーンの構造に関する情報を学習プロセスに組み込むことにより,教師なし学習の進歩を構築する。
本研究では,(1)特徴マップと深度マップを空間的に相関させて深度-特徴相関を学習し,シーンの構造に関する知識を誘導する。
次に,シーンの深度情報に対する3次元サンプリング技術を利用して,より効果的に特徴を抽出するために,最遠点サンプリングを実装した。
論文 参考訳(メタデータ) (2023-09-21T11:47:01Z) - Self-Supervised Monocular Depth Estimation by Direction-aware Cumulative
Convolution Network [80.19054069988559]
自己教師付き単眼深度推定は, 方向感度と環境依存性を示す。
本稿では2つの側面において深度表現を改善する方向対応累積畳み込みネットワーク(DaCCN)を提案する。
実験の結果,提案手法は広く使用されている3つのベンチマークにおいて大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-08-10T14:32:18Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - X-Distill: Improving Self-Supervised Monocular Depth via Cross-Task
Distillation [69.9604394044652]
そこで本研究では,クロスタスク知識蒸留による単眼深度の自己指導的訓練を改善する手法を提案する。
トレーニングでは,事前訓練されたセマンティックセグメンテーション教師ネットワークを使用し,そのセマンティック知識を深度ネットワークに転送する。
提案手法の有効性をKITTIベンチマークで評価し,最新技術と比較した。
論文 参考訳(メタデータ) (2021-10-24T19:47:14Z) - Self-Supervised Monocular Depth Estimation with Internal Feature Fusion [12.874712571149725]
深度推定のための自己教師付き学習は、画像列の幾何学を用いて監督する。
そこで本研究では,ダウンおよびアップサンプリングの手順で意味情報を利用することのできる,新しい深度推定ネットワークDIFFNetを提案する。
論文 参考訳(メタデータ) (2021-10-18T17:31:11Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - Interpretable Detail-Fidelity Attention Network for Single Image
Super-Resolution [89.1947690981471]
本研究では,スムースとディテールを段階的に分割・収束的に処理する,目的・解釈可能なディテール・ファイダリティ・アテンション・ネットワークを提案する。
特に,詳細推論において顕著な解釈可能な特徴表現のためのヘシアンフィルタを提案する。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-09-28T08:31:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。