論文の概要: GlocalFuse-Depth: Fusing Transformers and CNNs for All-day
Self-supervised Monocular Depth Estimation
- arxiv url: http://arxiv.org/abs/2302.09884v1
- Date: Mon, 20 Feb 2023 10:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 15:50:43.271892
- Title: GlocalFuse-Depth: Fusing Transformers and CNNs for All-day
Self-supervised Monocular Depth Estimation
- Title(参考訳): glocalfuse-depth:全日自己教師付き単眼深度推定のための変圧器とcnnの融合
- Authors: Zezheng Zhang, Ryan K. Y. Chan and Kenneth K. Y. Wong
- Abstract要約: 本稿では,全日画像の自己教師付き深度推定のための2分岐ネットワークGlocalFuse-Depthを提案する。
GlocalFuse-Depthは、Oxford RobotCarデータセット上の全日画像の最先端結果を達成する。
- 参考スコア(独自算出の注目度): 0.12891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, self-supervised monocular depth estimation has drawn much
attention since it frees of depth annotations and achieved remarkable results
on standard benchmarks. However, most of existing methods only focus on either
daytime or nighttime images, thus their performance degrades on the other
domain because of the large domain shift between daytime and nighttime images.
To address this problem, in this paper we propose a two-branch network named
GlocalFuse-Depth for self-supervised depth estimation of all-day images. The
daytime and nighttime image in input image pair are fed into the two branches:
CNN branch and Transformer branch, respectively, where both fine-grained
details and global dependency can be efficiently captured. Besides, a novel
fusion module is proposed to fuse multi-dimensional features from the two
branches. Extensive experiments demonstrate that GlocalFuse-Depth achieves
state-of-the-art results for all-day images on the Oxford RobotCar dataset,
which proves the superiority of our method.
- Abstract(参考訳): 近年, 自己監督型単分子深度推定は, 深度アノテーションが不要であり, 標準ベンチマークで顕著な結果を得たため, 注目されている。
しかし,既存の手法の多くは昼夜画像のみに焦点を絞っているため,昼夜画像と夜間画像の間に大きな領域シフトがあるため,その性能は他領域に低下する。
そこで本稿では,全日画像の自己教師付き深度推定のために,glocalfuse-depthという2分岐ネットワークを提案する。
CNNブランチとTransformerブランチの2つのブランチに、入力画像対の日時画像と夜間画像が供給され、細粒度の詳細とグローバル依存の両方を効率的にキャプチャすることができる。
さらに,2つの枝から多次元的特徴を融合させる新たな融合モジュールを提案する。
GlocalFuse-DepthがOxford RobotCarデータセット上の全日画像の最先端化を実現し,本手法の優位性を実証した。
関連論文リスト
- One Diffusion to Generate Them All [54.82732533013014]
OneDiffusionは双方向画像合成と理解をサポートする汎用的で大規模な拡散モデルである。
テキスト、深さ、ポーズ、レイアウト、セマンティックマップなどの入力から条件生成を可能にする。
OneDiffusionは、シーケンシャルな画像入力を使用して、マルチビュー生成、カメラポーズ推定、即時パーソナライズを可能にする。
論文 参考訳(メタデータ) (2024-11-25T12:11:05Z) - Exploring Reliable Matching with Phase Enhancement for Night-time Semantic Segmentation [58.180226179087086]
夜間セマンティックセマンティックセグメンテーションに適した新しいエンドツーエンド最適化手法であるNightFormerを提案する。
具体的には,画素レベルのテクスチャ・エンハンスメント・モジュールを設計し,フェーズ・エンハンスメントとアンプリメント・アテンションとともに階層的にテクスチャ・アウェア機能を取得する。
提案手法は、最先端の夜間セマンティックセグメンテーション手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-08-25T13:59:31Z) - M${^2}$Depth: Self-supervised Two-Frame Multi-camera Metric Depth Estimation [22.018059988585403]
M$2$Depthは、自律運転における信頼性の高いスケール認識周囲の深さを予測するように設計されている。
まず、空間領域と時間領域のコストボリュームを個別に構成する。
本研究では,空間時空間情報を統合して高音量表示を実現する空間時空間融合モジュールを提案する。
論文 参考訳(メタデータ) (2024-05-03T11:06:37Z) - The Second Monocular Depth Estimation Challenge [93.1678025923996]
MDEC (Monocular Depth Estimation Challenge) の第2版は、いかなる種類の監視方法にも開放された。
この課題はSynS-Patchesデータセットをベースとしており、高品質な高密度地下構造を持つ多様な環境を特徴としている。
上位の監督官は相対的なFスコアを27.62%改善し、上位の監督官は16.61%改善した。
論文 参考訳(メタデータ) (2023-04-14T11:10:07Z) - STEPS: Joint Self-supervised Nighttime Image Enhancement and Depth
Estimation [12.392842482031558]
本研究では,夜間画像強調器と深度推定器を両課題に使用せずに共同で学習する手法を提案する。
提案手法は,新たに提案された不確実な画素マスキング戦略を用いて,2つの自己監督タスクを密に絡み合わせる。
提案手法をnuScenesとRobotCarの2つの確立したデータセットでベンチマークする。
論文 参考訳(メタデータ) (2023-02-02T18:59:47Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Self-supervised Monocular Depth Estimation for All Day Images using
Domain Separation [17.066753214406525]
本稿では,全日画像の自己教師付き深度推定のための領域分離ネットワークを提案する。
提案手法は,オックスフォード・ロボットカー・データセットにおける全日画像の最先端の深度推定結果を実現する。
論文 参考訳(メタデータ) (2021-08-17T13:52:19Z) - Regularizing Nighttime Weirdness: Efficient Self-supervised Monocular
Depth Estimation in the Dark [20.66405067066299]
未ペア深度マップから分布知識を学習するために,プリエントベース正規化を導入する。
また、画像の可視性とコントラストを高めるために、マッピング一貫性画像強調モジュールを活用している。
筆者らのフレームワークは,2つの夜間データセットに対して,顕著な改善と最先端の結果を達成している。
論文 参考訳(メタデータ) (2021-08-09T06:24:35Z) - Unsupervised Monocular Depth Estimation for Night-time Images using
Adversarial Domain Feature Adaptation [17.067988025947024]
我々は、制約のないRGB単眼の夜間画像から画素ごとの深度マップを推定する問題を考察する。
夜間画像でテストした場合、最先端の昼時間深度推定法は不幸にも失敗する。
そこで本稿では,昼夜画像で訓練されたネットワークを夜間画像に適応させるドメイン適応問題として取り上げ,この問題を解決することを提案する。
論文 参考訳(メタデータ) (2020-10-03T17:55:16Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。