論文の概要、ライセンス

# (参考訳) Deep Depth Completion: 調査 [全文訳有]

Deep Depth Completion: A Survey ( http://arxiv.org/abs/2205.05335v1 )

ライセンス: CC BY 4.0
Junjie Hu, Chenyu Bao, Mete Ozay, Chenyou Fan, Qing Gao, Honghai Liu, Tin Lun Lam(参考訳) 深度補正は、深度センサから取得したスパースマップから高密度画素幅の深さを予測することを目的としている。 自動運転、3D再構築、拡張現実、ロボットナビゲーションなど、さまざまな応用において重要な役割を果たす。 このタスクの最近の成功は、ディープラーニングベースのソリューションによって実証され、支配されている。 本稿では,本論文で初めて,読者が研究動向をより深く把握し,現在の進歩を明確に理解するための総合的な文献レビューを行う。 本研究では,ネットワークアーキテクチャ,損失関数,ベンチマークデータセット,学習戦略の設計的側面から,既存の手法を分類する新しい分類法を提案する。 また,屋内データセットと屋外データセットを含む2つのベンチマークデータセットにおけるモデル性能の定量的比較を行った。 最後に,先行研究の課題を議論し,今後の研究方向性に関する洞察を読者に提供する。

Depth completion aims at predicting dense pixel-wise depth from a sparse map captured from a depth sensor. It plays an essential role in various applications such as autonomous driving, 3D reconstruction, augmented reality, and robot navigation. Recent successes on the task have been demonstrated and dominated by deep learning based solutions. In this article, for the first time, we provide a comprehensive literature review that helps readers better grasp the research trends and clearly understand the current advances. We investigate the related studies from the design aspects of network architectures, loss functions, benchmark datasets, and learning strategies with a proposal of a novel taxonomy that categorizes existing methods. Besides, we present a quantitative comparison of model performance on two widely used benchmark datasets, including an indoor and an outdoor dataset. Finally, we discuss the challenges of prior works and provide readers with some insights for future research directions.
公開日: Wed, 11 May 2022 08:24:00 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 5 3 3 5 0 1 v 5 3 3 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
1 Deep Depth Completion: A Survey 1 Deep Depth Completion: 調査 0.38
Junjie Hu, Member, IEEE, Chenyu Bao, Mete Ozay, Chenyou Fan, Qing Gao, Honghai Liu, Fellow, IEEE ジュンジエ・フ、メンバー、ieee、チェンユ・バオ、ミーテ・オザイ、チェンユー・ファン、清華、ホンハイ・リウ、フェロー、ieee 0.47
and Tin Lun Lam, Senior Member, IEEE IEEEのシニアメンバであるTin Lun Lam氏 0.66
Abstract—Depth completion aims at predicting dense pixel-wise depth from a sparse map captured from a depth sensor. 抽象 - 深度補正は、深度センサーから捉えたスパースマップから密度の高いピクセルの深さを予測することを目的としている。
訳抜け防止モード: 抽象 – 深度補完の目的は 密度ピクセルの予測 - 深度センサーから取得したスパースマップからの賢明な深さ。
0.67
It plays an essential role in various applications such as autonomous driving, 3D reconstruction, augmented reality, and robot navigation. 自動運転、3D再構築、拡張現実、ロボットナビゲーションなど、さまざまな応用において重要な役割を果たす。 0.79
Recent successes on the task have been demonstrated and dominated by deep learning based solutions. このタスクの最近の成功は、ディープラーニングベースのソリューションによって実証され、支配されている。 0.52
In this article, for the first time, we provide a comprehensive literature review that helps readers better grasp the research trends and clearly understand the current advances. 本稿では,本論文で初めて,読者が研究動向をより深く把握し,現在の進歩を明確に理解するための総合的な文献レビューを行う。 0.82
We investigate the related studies from the design aspects of network architectures, loss functions, benchmark datasets, and learning strategies with a proposal of a novel taxonomy that categorizes existing methods. 本研究では,ネットワークアーキテクチャ,損失関数,ベンチマークデータセット,学習戦略の設計的側面から,既存の手法を分類する新しい分類法を提案する。 0.76
Besides, we present a quantitative comparison of model performance on two widely used benchmark datasets, including an indoor and an outdoor dataset. また,屋内データセットと屋外データセットを含む2つのベンチマークデータセットにおけるモデル性能の定量的比較を行った。 0.73
Finally, we discuss the challenges of prior works and provide readers with some insights for future research directions. 最後に,先行研究の課題を議論し,今後の研究方向性に関する洞察を読者に提供する。 0.71
Index Terms—Depth Completion, deep learning, depth estimation, multi-modality fusion, spatial propagation network. 指数項 - 深度補完、深度学習、深度推定、多モード融合、空間伝播ネットワーク。 0.76
! 1 INTRODUCTION A Cquiring correct pixel-wise scene depth plays a sub- ! 1回目 Cquiring correct pixel-wise scene depth play a sub-- 0.47
stantial role in various tasks such as scene understanding [50], autonomous driving [90], robotic navigation [69], [95], simultaneous localization and mapping [33], intelligent farming [22], and augmented reality [18]. シーン理解[50],自律運転[90],ロボットナビゲーション[69],[95],同時ローカライゼーションとマッピング[33],インテリジェント農業[22],拡張現実[18]など,さまざまなタスクにおける静的役割について検討した。 0.77
Thus, it has been a long-term goal studied in past decades. そのため、過去数十年にわたって研究されてきた長期的目標である。 0.63
One cost-effective way of obtaining scene depth is to directly estimate it from a single image with monocular depth estimation algorithms [26], [30], [40], [57]. 単眼深度推定アルゴリズム[26],[30],[40],[57]を用いた単一画像からシーン深度を得るためのコスト効率の良い方法の1つは、直接推定することである。 0.83
However, visual methods often yield a low inference accuracy and poor generalizability and thus are vulnerable to real-world deployment. しかし、ビジュアルメソッドは推論精度が低く、一般化が悪く、現実のデプロイメントに弱いことが多い。 0.61
On the other hand, depth sensors provide accurate and robust distance measurements with true scene scales. 一方、深度センサは真のシーンスケールで高精度でロバストな距離計測を提供する。 0.79
Therefore, they are more applicable for applications that require a security guarantee and high performance [25], [70], [90], e g , self-driving cars. したがって、セキュリティ保証と高性能 [25], [70], [90], eg, 自動運転車を必要とするアプリケーションに適用できる。
訳抜け防止モード: したがって、セキュリティ保証を必要とするアプリケーションに対してより適している。 ハイパフォーマンス[25], [70], [90], 例えば、self。 車を運転する。
0.74
In fact, measuring depths with LiDARs is probably still the most deployable way to obtain reliable depth in industrial applications. 実のところ、LiDARによる深度測定は、産業アプリケーションにおける信頼性の高い深度を得るための最もデプロイ可能な方法である。 0.62
However, neither LiDAR nor commonly used RGBD cameras, like Microsoft Kinect, can provide a dense pixel-wise depth map. しかし、LiDARやMicrosoft Kinectのような一般的なRGBDカメラは、ピクセル単位の深度マップを提供できない。 0.71
As shown in Fig 1, the depth map captured by Kinect has small holes and the map captured by LiDAR is significantly more sparse. 図1に示すように、Kinectが捉えた深度マップには小さな穴があり、LiDARが捉えた地図ははるかに疎い。 0.72
It is, therefore, necessary to fill the void pixels in practice. したがって、実際には空白画素を埋める必要がある。 0.62
Since there is a clear difference between depth maps captured by Kinect and LiDAR, following [45], [101], we technically distinguish completion and estimation tasks for KinectとLiDARの深度マップは[45], [101]に比例して明らかな違いがあるので, 技術的に完了と推定のタスクを区別する。 0.74
• is with teozay@gmail.com. • teozay@gmail.comです。 0.60
the J.Hu, Q.Gao are with the Shenzhen Institute of Artificial Intelligence and Robotics for Society (AIRS), China. その... j.hu,q.gaoは中国の深セン人工知能・ロボティクス研究所(airs)に所属している。 0.41
E-mail: hujunjie@cuhk.edu.cn , gaoqing@cuhk.edu.cn. メール:hujunjie@cuhk.edu.c n, gaoqing@cuhk.edu.cn 0.33
University, China. E-mail: fanchenyou@scnu.edu. cn. 中国大学教授。 メール: fanchenyou@scnu.edu. cn 0.65
• M.Ozay Samsung Research, UK. m.ozay samsung research, uk(英語) 0.59
E-mail: me• C.Fan is with the School of Artificial Intelligence, South China Normal • H.Liu is with the State Key Laboratory of Robotics and systems, Harbin Institute of Technology (Shenzhen), China. h.liuは中国のharbin institute of technology(shenzhen) のロボット工学・システム研究所(state key laboratory of robotics and systems)に所属している。
訳抜け防止モード: E-メール Me•C.Fanは、南シナ師範学校と提携している H.Liu は State Key Laboratory of Robotics and Systems に所属している。 ハービン工科大学(深セン)、中国。
0.70
E-mail: honghai.liu@hit.edu. cn. 電子メール:honghai.liu@hit.edu .cn 0.59
• C.Bao and T.T.Lam are with the Chinese University of Hong Kong, Shenzhen, China. ・C.BaoとT.T.Lamは、中国深センの香港大学に加盟している。 0.63
E-mail: boggy615@gmail.com, tllam@cuhk.edu.cn. メール: boggy615@gmail.com, tllam@cuhk.edu.cn 0.71
• J.Hu and C.Bao contribute equally. ・J.HuとC.Baoは等しく貢献する。 0.52
• T.L.Lam is the corresponding author. • T.L.Lam は対応する著者である。 0.57
Fig. 1. Comparison between captured depth maps by different sensors. 図1。 異なるセンサによる撮影深度マップの比較。 0.56
The raw sparse depth maps are shown in the middle. 生のスパース深度マップは中央に表示されます。 0.78
The left one is captured by a Kinect in an indoor scenario, and the right one is captured by a LiDAR in an outdoor street. 左はKinectで屋内シナリオで撮影され、右は屋外の通りでLiDARで撮影される。 0.54
Clearly, the map captured by LiDAR is significantly more sparse. 明らかに、LiDARが捉えた地図ははるかに粗い。 0.71
The bottom row shows the completed depth map from the raw sparse map. 下行は生のスパースマップから完成した深度マップを示している。 0.81
Kinect and LiDAR data as follows: KinectとLiDARのデータは以下のとおりである。 0.63
1) Depth enhancement: Also referred to as depth holefilling, aims at filling irregular and rare small holes from a dense raw depth map. 1)奥行き強化:奥行き穴埋めとも呼ばれ、密集した生深度マップから不規則で希少な小穴を埋めることを目的としている。
訳抜け防止モード: 1)深さ拡大 : 深さ穴埋めとも呼ばれる。 密集した生深度マップから不規則で希少な小穴を埋めることを目指す。
0.77
A typical application is the enhancement for Kinect. 典型的なアプリケーションはKinectの拡張である。 0.76
2) Depth completion: Aims at recovering a dense depth map from a highly sparse input depth map, usually dealing with LiDAR data. 2) 深度完了: 高度にスパースな入力深度マップから高密度深度マップを復元し, 通常はLiDARデータを扱う。 0.78
Intuitively, depth completion is more challenging than depth enhancement due to the extreme sparsity of inputs. 直感的には、入力の極端に間隔があるため、深さの増大よりも深さの完成の方が困難である。 0.53
In recent years, deep learning based methods have shown compelling performance on the task and have led the development trend. 近年,ディープラーニングに基づく手法はタスクに魅力的なパフォーマンスを示し,開発トレンドを導いている。
訳抜け防止モード: 近年,深層学習に基づく手法が課題に対して有意義なパフォーマンスを示している。 開発トレンドをリードしました
0.73
It is shown in prior works that a network with several convolutional layers [98], or a simple auto-encoder [102] can complete missing depths. 複数の畳み込み層[98]を持つネットワークや、単純なオートエンコーダ[102]が欠落した深さを補うことができることを示す。 0.76
Moreover, depth completion can be further improved by leveraging RGB information. さらに、RGB情報を活用することにより、深度補完をさらに改善することができる。 0.62
A typical method of this type [50], [88] is この種の[50], [88]の典型的な方法は 0.81
RGB imageRaw depthCompleted depth RGB ImageRaw depthCompleted depth 0.42
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
2 Fig. 2. A timeline for deep learning based depth completion methods. 2 図2。 深層学習に基づく深層学習の時系列化 0.52
We show some selected works to visualize the evolution process. 進化過程を視覚化するためのいくつかの作品を示す。 0.50
Unguided methods: SI-CNN [98], ADNN [12], HMS-Net [45], Ncon-CNN [101], IR L2 [68], pNCNN [20]. SI-CNN [98]、ADNN [12]、HMS-Net [45]、Ncon-CNN [101]、IR L2 [68]、pNCNN [20]。
訳抜け防止モード: 非誘導方式 : SI - CNN [98 ], ADNN [12 ] HMS - Net [45 ], Ncon - CNN [101 ] IR L2 [ 68 ] , pNCNN [ 20 ] である。
0.85
RGB guided methods: 1) Early fusion models: S2D [71], SS-S2D [70], 3coeff [47], S2DNet [34], Qu et al [80], Long et al [65]. rgbガイドの方法 1) 初期の核融合モデル: S2D [71], SS-S2D [70], 3coeff [47], S2DNet [34], Qu et al [80], Long et al [65]。 0.53
2) Late fusion models: Spade-RGBD [50], DDP [119], DfineNet [124], GuideNet [93], VOICED [109], MSG-CHN [59], KBNet [110], RigNet [117], ScaffFusion [107]. 2)後期融合モデル: Spade-RGBD [50], DDP [119], DfineNet [124], GuideNet [93], VOICED [109], MSG-CHN [59], KBNet [110], RigNet [117], ScaffFusion [107]。 0.38
3) Explicit 3D representation models: PwP [113], DeepLidar [79], 2D-3D fuseNet [7], ABCD [51], ACMNet [129], Du et al [19]. 3)明示的な3d表現モデル:pwp [113], deeplidar [79], 2d-3d fusenet [7], abcd [51], acmnet [129], du et al [19]。
訳抜け防止モード: 3 )明示的な3次元表現モデル : pwp [113 ], deeplidar [79 ], 2d-3d fusenet [7 ], abcd [51 ], acmnet (複数形 acmnets)
0.63
4) SPN-based models: CSPN [11], NLSPN [77], CSPN++ [10], PENet [42], DySPN [61]. 4)SPNベースのモデル: CSPN [11], NLSPN [77], CSPN++ [10], PENet [42], DySPN [61]。 0.77
5) Residual depth models: FCFR-Net [63], KernelNet [62], DenseLidar [32], Zhu et al [131]. 5) 残留深度モデル:FCFR-Net [63], KernelNet [62], DenseLidar [32], Zhu et al [131]。 0.35
to use dual encoders for extracting features from a sparse depth map and its corresponding RGB image, respectively, and later fuse them with a decoder. スパース深度マップとその対応するrgb画像から特徴を抽出するためにデュアルエンコーダを使用し、後にデコーダと融合させる。 0.71
To push the envelope of depth completion, recent approaches tend to use complicated network structures and complex learning strategies. 深度補完の包絡を推し進めるために、最近のアプローチでは複雑なネットワーク構造と複雑な学習戦略を用いる傾向がある。 0.77
In addition to multi-branches used for feature extraction from multi-modality data, e g , image and sparse depths, researchers have begun to integrate surface normal [79], affinity matrix [11], residual depth map [32], etc., into their frameworks. マルチモーダルデータ,画像,スパース深度などの特徴抽出に使用されるマルチブランチに加えて,研究者たちは,表面正規[79],親和性行列[11],残留深度マップ[32]等をフレームワークに統合し始めている。 0.79
Besides, to cope with the lack of supervised pixels, some works introduced exploiting multi-view geometric constraints [70] and adversarial regularization [54]. また、教師付き画素の欠如に対処するために、多視点幾何制約 [70] と逆正規化 [54] を活用した作品もある。 0.65
These efforts have greatly facilitated the progress in the depth completion task. これらの取り組みは深度完了作業の進展を大いに促進した。 0.74
Despite the tremendous progress made by learning based approaches, to the best of our knowledge, a comprehensive survey is lacking. 学習ベースのアプローチ、最高の知識に対する大きな進歩にもかかわらず、包括的な調査は欠落しています。 0.68
This article aims to depict the development of learning based depth completion through hierarchically analyzing and categorizing existing methods and provide readers with a straightforward understanding of deep depth completion with some valuable instructions. 本稿は,既存の手法を階層的に分析し分類することで,学習に基づく奥行き補完の開発を図示することを目的としている。 0.57
Typically, we hope to answer the following questions: 典型的には、以下の質問に答えたい。 0.73
1) What are the common characteristics of previous meth- 1)前身の共通の特徴は何か 0.67
ods for achieving highly accurate depth completion? 高度に正確な深度を 達成するためのods? 0.60
2) What are the pros and cons of RGB guided approaches 2)RGBガイドアプローチの長所と短所は何か 0.68
compared to unguided methods? ガイドなしの方法に比べたら? 0.52
3) Since most previous works employed both visual and LiDAR data, what are the most effective strategies for multi-modal data fusion? 3)以前のほとんどの作品は視覚データとlidarデータの両方を使用していたため、マルチモーダルデータ融合の最も効果的な戦略は何でしょう?
訳抜け防止モード: 3) 視覚データとlidarデータの両方を用いていた。 マルチモーダルデータ融合の最も効果的な戦略は何か?
0.79
4) What are the current challenges? 4) 現在の課題は何ですか? 0.82
With the above questions being considered, we survey the related works from January 2017 to May 2022 (at the time of writing). 上記の質問を考慮し、2017年1月から2022年5月(執筆時点で)までの関連作品を調査した。 0.70
Fig 2 visualizes the timeline of the selected methods based on the proposed taxonomy, where the bottom and the top show the unguided and five types of RGB guided methods, respectively. 図2は,提案する分類法に基づいて選択した手法の時系列を可視化する。
訳抜け防止モード: 図2は,提案する分類に基づいて選択した手法の時系列を可視化する。 下部と上部はそれぞれ誘導されていないrgbガイド方式と5種類のrgbガイド方式である。
0.67
It is seen that although early 初期はあったものの、 0.52
studies tackle depth completion in an unguided fashion, we observed that studies published after 2020 have been gradually dominated by RGB guided methods. その結果、2020年以降に発表された研究は徐々にRGBガイド方式によって支配されていることがわかった。 0.66
In this article, we investigate the previous studies from the aspects of network structure, loss function, learning strategy, and benchmark datasets. 本稿では,ネットワーク構造,損失関数,学習戦略,ベンチマークデータセットの観点から,先行研究について検討する。 0.80
We especially stress methods with the proposal of novel algorithms or significant performance boosts and properly provide visual descriptions of their technical contributions to promote the clarification. 特に,新しいアルゴリズムの提案や顕著な性能向上によって手法を強調し,その技術的貢献の視覚的記述を適切に提供し,その明確化を促進する。
訳抜け防止モード: 特に新しいアルゴリズムの提案や 大幅な性能向上によって 技術的貢献の視覚的な説明を適切に提供し 明確化を促進するためです
0.83
Furthermore, we provide quantitative comparisons of existing methods with essential characteristics on the most popular benchmark datasets. さらに,最も人気のあるベンチマークデータセットにおいて,既存手法と本質的特徴の定量的比較を行う。 0.68
Through the in-depth analysis of previous studies, we wish the reader can gain a clear understanding of deep depth completion. 先行研究の奥行き分析を通じて,読者が深い奥行きの完全性を理解することができることを願っている。 0.72
In summary, our key contributions are as follows: • To the best of our knowledge, this is the first survey for depth completion. 要約すると、我々の主要な貢献は以下のとおりである。
訳抜け防止モード: まとめると、我々の主な貢献は以下の通りである。 •私たちの知る限りでは、深度調査は初めてです。
0.71
We give an in-depth and comprehensive review, including both unguided and RGB guided methods. 非誘導法とrgb誘導法の両方を含む詳細かつ包括的なレビューを行う。 0.64
• We propose a novel taxonomy to categorize previous methods and visualize their main characteristics, including network structures, loss functions, and learning strategies. •従来の手法を分類し,ネットワーク構造,損失関数,学習戦略などの特徴を可視化する新しい分類法を提案する。 0.80
• The article covers the most advanced and recent progress of deep learning based depth completion with performance comparison on benchmark datasets. • この記事では、ベンチマークデータセットのパフォーマンス比較によるディープラーニングベースの深度補完の最も先進的で最近の進歩を取り上げている。 0.63
It provides readers with state-of-the-art methods. 読者に最先端のメソッドを提供する。 0.52
• We provide several open issues and promising future •我々はいくつかのオープンイシューと有望な未来を提供します 0.55
research directions. The remainder of this article is organized as follows: Section 2 gives the formulation of deep learning based depth completion and provides the proposed taxonomy. 研究の方向だ 第2節は、深層学習に基づく奥行き完了の定式化を提供し、提案された分類法を提供する。 0.61
Section 3 reviews unguided methods, and Section 4 elaborates RGB guided methods. 第3節では未案内の方法をレビューし、第4節ではRGBガイドの方法を詳しく説明している。 0.44
Section 5 introduces the loss functions employed in previous approaches. 第5節では、以前のアプローチで採用した損失関数を紹介する。 0.53
Section 6 lists the benchmark datasets and introduces the evaluation metrics for セクション6はベンチマークデータセットをリストし、評価メトリクスを紹介します。 0.68
SI-CNN (3DV)Unguided Method:ADNN (ACCV)HMS-Net (TIP)Nconv-CNN (TPAMI)IR L2 (CVPR)pNCNN(CVPR)Ear ly fusion model SS-S2D (ICRA)3coeff (CVPR)CSPN (ECCV)Spade-RGBD (3DV)S2D (ICRA)Long et al (JVCIR)S2DNet (TCI)Qu et al (WACV)GuideNet(TIP)V OICED (RAL)MSG-CHN (WACV)DDP (CVPR)DfineNet(Arxiv )KBNet(ICCV)RigNet(A rxiv)ScaffFusion(RAL )NLSPN (ECCV)CSPN++ (AAAI)PENet(ICRA)Ker netNet(TIP)DenseLida r(RAL)FCFR-Net (AAAI)Zhu et al (AAAI)DySPN(AAAI)Lat e fusion model SPN based modelResidual depth modelRGB Guided Method:PwP(ICCV)Deep Lidar(CVPR)2D-3D FuseNet(ICCV)ABCD (RAL)ACMNet(TIP)Du et al (Arxiv)Explicit 3D model201720182019202 020212022 SI-CNN (3DV)Unguided Method:ADNN (ACCV)HMS-Net (TIP)Nconv-CNN (TPAMI)IR L2 (CVPR)pNCNN(CVPR)Ear ly fusion model SS-S2D (ICRA)3coeff (CVPR)CSPN (ECCV)Spade-RGBD (3DV)S2D (ICRA)Long et al (JVCIR)S2DNet (TCI)Qu et al (WACV)GuideNet(TIP)V OICED (RAL)MSG-CHN (WACV)DDP (CVPR)DfineNet(Arxiv )KBNet(ICCV)RigNet(A rxiv)ScaffFusion(RAL )NLSPN (ECCV)CSPN++ (AAAI)PENet(ICRA)Ker netNet(TIP)DenseLida r(RAL)FCFR-Net (AAAI)Zhu et al (AAAI)DySPN(AAAI)Lat e fusion model SPN based modelResidual depth modelRGB Guided Method:PwP(ICCV)Deep Lidar(CVPR)2D-3D FuseNet(ICCV)ABCD (RAL)ACMNet(TIP)Du et al (Arxiv)Explicit 3D model201720182019202 020212022 0.50
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
3 A brief overview of the proposed taxonomy. 3 提案された分類の簡単な概要。 0.53
TABLE 1 Main categories 表1 主なカテゴリー 0.73
Sub-categories Major characteristics サブカテゴリ 主な特徴 0.74
Unguided methods (Sec. 3) 誘導のない方法 (第3回) 0.61
Sparsity-aware CNNs (SACNN, Sec. 3.1) スパシティ対応CNN(SACNN, Sec. 3.1) 0.61
Normalized CNNs (NCNN, Sec. 3.2) 正規化CNN(NCNN, Sec. 3.2) 0.34
Training with Auxiliary Images (TwAI, Sec. 3.3) 補助画像によるトレーニング(TwAI, Sec. 3.3) 0.88
Early fusion models (EFM, Sec. 4.1) 初期核融合モデル(EFM, Sec. 4.1) 0.83
• Encoder-decoder networks (EDN, Sec. 4.1.1) • Coarse to refinement prediction (C2RP, •エンコーダデコーダネットワーク(EDN, Sec.1.1) • 洗練予測(C2RP,) 0.85
Sec. 4.1.2) RGB guided methods 第4.1.2話)。 RGBガイド法 0.56
(Sec. 4) Late fusion models (LFM, Sec. 4.2) (第4回) 後期核融合モデル(LFM, Sec. 4.2) 0.74
• Dual-encoder networks (DEN, Sec. 4.2.1) • Double encoder-decoder networks (DEDN, •デュアルエンコーダネットワーク(DEN, Sec.4.2.1) • ダブルエンコーダデコーダネットワーク(DEDN,) 0.81
• Global and Local Depth Prediction (GLDP, •グローバル・ローカル深度予測(gldp,gldp) 0.79
Sec. 4.2.2) Sec. 4.2.3) 第4.2.2) 第4.2.3) 0.57
Explicit 3D representation models (E3DR, Sec. 4.3) 明示的な3次元表現モデル(E3DR, Sec. 4.3) 0.68
• 3D-aware convolution (3DAC, Sec. 4.3.1) • Intermediate surface normal representation • 3次元認識畳み込み(DAC, Sec. 4.3.1) • 中間表面正規表現 0.72
(ISNR, Sec. 4.3.2) (ISNR、Sec.3.2) 0.73
• Learning from point clouds (LfPC, Sec. 4.3.3) •点雲(LfPC,Sec.3.3)からの学習 0.85
Using the binary validity mask to indicate missing elements during convolution. 畳み込み中に欠落している要素を示すためにbinary valid maskを使用する。 0.60
1). Built on normalized convolution 2). 1). 正規化畳み込み(2)に基づいて構築される。 0.45
Replacing the validity mask with continuous confidence mask. 連続信頼マスクによる妥当性マスクの置き換え。 0.78
Integrating image reconstruction into latent or output space to encourage learning semantic cues. 画像再構成を潜在空間や出力空間に統合し、セマンティックキューの学習を促進する。 0.61
Image guided training and unguided inference are employed. 画像誘導訓練と非誘導推論が用いられる。 0.71
Directly aggregating the image and sparse depth map input or fusing the multi-modality features at the first convolutional layer. 画像とスパース深度マップを直接集約し、第1畳み込み層でマルチモダリティ特徴を入力または融合する。 0.73
The framework usually consists of dual encoders or two sub-networks; the one is used for extracting RGB features and the other is used for extracting depth features. フレームワークは通常、2つのエンコーダまたは2つのサブネットワークで構成され、一方はRGB特徴抽出に、もう一方は深度特徴抽出に使用される。 0.75
Fusion is conducted at the intermediate layers, e g , fusing extracted features from encoders. 融合は中間層、例えばエンコーダから抽出された特徴を融合して行われる。 0.74
Explicitly learning 3D representations, such as applying 3D convolutions, embedding surface normals, and learning from 3D point clouds. 3Dコンボリューションの適用,表面正規化の埋め込み,3Dポイントクラウドからの学習といった,3D表現の明示的な学習。 0.70
Learning a coarse depth map and a residual depth map. 粗い深度マップと残留深度マップを学習する。 0.73
Their combination generates the final depth map. それらの組み合わせは最終深度マップを生成する。 0.71
1). Based on the spatial propagation network. 1). 空間伝播ネットワークに基づいています 0.60
2). First learning the affinity matrix, and then applying affinity based depth refinement. 2). まず親和性行列を学習し、その後親和性に基づく深さ細分化を適用する。 0.48
Residual depth models (RDM, Sec. 4.4) 残留深度モデル(RDM, Sec.4) 0.73
SPN-based models (SPM, Sec. 4.5) spnベースのモデル(spm, sec. 4.5) 0.58
the depth completion task. Section 7 compares the previous methods from comprehensively different perspectives. 奥行き完了作業。 第7節は、従来の方法を包括的に異なる視点で比較する。 0.40
Section 8 summarizes the open challenges and provides valuable directions for future research. 第8節はオープンチャレンジを要約し、今後の研究に有用な方向性を提供する。 0.52
Section 9 gives the conclusion. 第9節が結論となる。 0.64
2 DEEP LEARNING BASED DEPTH COMPLETION In this section, we first give a common formulation of the depth completion task. 2 深度学習ベースDepth CompleTION 本節では,まず,深度完了タスクの共通表現について述べる。 0.67
Then, we outline the proposed taxonomy. 次に,提案する分類法について概説する。 0.49
Noting that some methods share common characteristics, we group them by jointly considering network structures and main technical contributions. いくつかの手法が共通の特徴を共有していることに注意し、ネットワーク構造と主要な技術貢献を共同で検討してグループ化する。
訳抜け防止モード: いくつかのメソッドは共通の特徴を共有している。 ネットワーク構造と主要な技術貢献を 共同で検討してグループ化します
0.66
2.1 Problem Formulation In depth completion, a deep neural network N with parameters (cid:87) predicts a dense depth map ˆY ∈ ˆ(cid:89) of a given sparse depth map Y (cid:48) ∈ (cid:89)(cid:48) by 2.1 問題定式化 ディープコンプリートコンプリートにおいて、パラメータ (cid:87) を持つディープニューラルネットワーク N は、与えられたスパース深さ写像 Y (cid:48) ∈ (cid:89)(cid:48) の密度深度写像を予測する。 0.72
ˆY = N (Y y = n (y) である。 0.48
(cid:48); (cid:87)) . (cid:48), (cid:87)。 0.85
(1) Unguided depth completion: In (1), depth completion is performed using only the sparse input without guidance from different modality data. (1) 非案内深度補完:(1)では、異なるモダリティデータから誘導されることなくスパース入力のみを用いて深度完了を行う。 0.60
Therefore, it is called unguided depth completion. そのため、無誘導深度完了と呼ばれる。 0.78
These methods are reviewed in detail in Section 3. これらの方法は、第3節で詳述されている。 0.54
RGB guided depth completion: In many works, both the sparse depth map and its corresponding RGB image are utilized for inputs. RGBガイド深度完成:多くの作品において、スパース深度マップと対応するRGB画像の両方が入力に使用される。 0.86
In this case, the task is formulated by この場合、そのタスクは定式化される 0.75
ˆY = N (Y y = n (y) である。 0.48
(cid:48) , I; (cid:87)) (cid:48) , I; (cid:87) 0.43
(2) where I denotes the RGB image whose pixels are aligned with Y (cid:48). (2) ここでは、画素がYに一致しているRGB画像を示す(cid:48)。 0.56
Then, task employed by (2) is referred to as RGB guided depth completion which is elucidated in Section 4. 次に、(2)が採用するタスクを、セクション4で解明されたRGBガイド深度完了と呼ぶ。 0.80
The parameters (cid:87) of the network N are optimized to ネットワークNのパラメータ(cid:87)を最適化する。 0.86
train the network by solving 解いてネットワークを訓練する 0.75
(cid:16) ˆ(cid:89), (cid:89); (cid:87) (cid:16) (cid:89), (cid:89), (cid:87) 0.42
(cid:17) ˆ(cid:87) = argmin (cid:17) シュ(cid:87) = argmin 0.60
(cid:76) (cid:87) (cid:76) (cid:87) 0.39
(3) where (cid:89) denotes the set of ground truth depth maps, and (cid:76) is a loss function which is usually defined to penalize pixelwise discrepancy between the prediction and the ground truth on the valid pixels through back-propagation while training N. Depending on the specific learning strategies, some other losses, such as unsupervised photometric loss, adversarial loss, and regularization terms on depth maps, are properly applied. (3) ここで (cid:89) は、基底真理深度マップの集合を表し、 (cid:76) は、通常、N のトレーニング中に、背面プロパゲーションを通じて、有効な画素上の予測と基底真理の画素単位の差分をペナルタイズするために定義される損失関数である。
訳抜け防止モード: (3) ここで (cid:89 ) は真理深度マップの集合を表します そして (cid:76 ) は損失関数で、通常、予測間の画素差をペナル化するために定義される。 そして、背中を通して有効なピクセルに関する基礎的真実 - Nを訓練しながらの伝播 - 特定の学習戦略に依存する。 教師なしの測光損失や 敵対的な損失など 奥行きマップの正規化用語を 適切に適用する。
0.59
An in-depth discussion of learning objectives and loss functions is given in Section 5. 第5節では、学習目標と損失関数の詳細な議論を行っている。 0.70
2.2 Taxonomy In this article, we propose a detailed taxonomy by jointly considering network structures and main technical contributions. 2.2 分類学 本稿では,ネットワーク構造と主な技術的貢献を共同で考慮し,詳細な分類法を提案する。 0.66
An existing method is firstly categorized into either an unguided method or an RGB guided approach. 既存の手法は、まず無誘導法またはRGB誘導法のいずれかに分類される。 0.69
Then, it is further classified into a more specific sub-category. その後、さらに特定のサブカテゴリに分類される。 0.71
Table 1 gives an overview of the proposed taxonomy with descriptions of the major factors for identifying categories. 表1は、カテゴリーを特定する主要な要因を記載した、提案された分類の概観である。 0.70
As seen, unguided methods have three sub-categories, including methods このように、誘導されていないメソッドは、メソッドを含む3つのサブカテゴリを持つ。 0.41
1) employing sparsity-aware CNNs, 1)sparsity-aware cnnの利用 0.59
2) employing normalized CNNs, and 2)正規化CNNの採用,及び 0.72
3) training with Auxiliary Images. 3)補助画像による訓練。 0.83
Guided methods include five sub-categories. ガイドラインには5つのサブカテゴリが含まれる。 0.50
Some of them also have more concrete classes. いくつかはより具体的なクラスがある。 0.71
For the その為 0.49
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
first and second categories, i.e., early fusion and late fusion models, the fusion strategy is the main factor considered in our taxonomy. 第1カテゴリと第2カテゴリ、すなわち早期融合モデルと後期融合モデルでは、融合戦略が我々の分類学で考慮される主要な要素である。 0.73
For the late three categories, i.e, explicit 3D representation models, residual depth models, and spatial propagation network (SPN) based models, the fusion strategy is not the major factor in identifying their types since they hold distinct characteristics and both early fusion and late fusion are used in previous methods. 後者の3つのカテゴリ、すなわち明示的な3次元表現モデル、残留深度モデル、空間伝播ネットワーク(SPN)ベースのモデルでは、融合戦略は異なる特徴を持つため、それらのタイプを特定する上で主要な要因ではない。
訳抜け防止モード: 後半の3つのカテゴリ、すなわち明示的な3D表現モデルについて。 残留深度モデルと空間伝播ネットワーク(SPN)モデル 融合戦略は タイプを特定する上で 重要な要素ではありません 異なる特徴を持ち 早期核融合と後期核融合の両方が 以前の方法で使われてる
0.86
3 UNGUIDED DEPTH COMPLETION Given a sparse depth map, unguided methods aim at directly completing it with a deep neural network model. 3 unguided depth completion スパース深度マップが与えられると、unguidedメソッドは、ディープニューラルネットワークモデルでそれを直接補完することを目的としている。 0.66
Previous methods can be generally categorized into three groups: methods using 従来の方法は一般に3つのグループに分類できる。 0.70
1) sparsity-aware CNN, 1)スパシティ対応CNN 0.54
2) normalized CNN, and 2)正常化CNN,及び 0.74
3) training with auxiliary images. 3)補助画像による訓練。 0.84
3.1 Sparsity-Aware CNNs Uhrig et al [98] proposed the first deep learning based unguided method. 3.1 Sparsity-Aware CNNs Uhrig et al [98] は,初となる深層学習に基づく無指導手法を提案した。 0.61
They first verified that normal convolutions are not able to handle sparse input and proposed a new sparse convolution operation. 彼らは最初に、通常の畳み込みはスパース入力を処理できないことを検証し、新しいスパース畳み込み演算を提案した。 0.53
Then, they introduced a 6layers CNN assembled with the proposed sparse convolution. そして、提案されたスパース畳み込みを組み込んだ6層CNNを導入した。 0.63
The sparse convolution uses a binary validity mask to distinguish between valid and missing values and performs convolution among only valid data. スパース畳み込みは二値検証マスクを用いて有効値と欠落値を区別し、有効なデータのみの畳み込みを行う。 0.73
The value of the validity mask is determined by its local neighbors via max-pooling. 有効マスクの値は、マックスプールによって局所隣人によって決定される。 0.69
This first deep learning based method outperforms nonlearning methods and shows the potential of deep learning on the task. 本手法は,非学習手法より優れ,課題における深層学習の可能性を示す。 0.74
Moreover, it inspired lots of subsequent studies. さらに、その後の多くの研究に影響を与えた。 0.61
However, the sparse convolution is not suitable to be directly applied to classical encoder-decoder networks, which can fully leverage the multi-scale features. しかし、スパース畳み込みは古典的なエンコーダ-デコーダネットワークに直接適用するには適していない。
訳抜け防止モード: しかし、スパース畳み込みは古典エンコーダ-デコーダネットワークに直接適用するには適していない。 マルチスケール機能を完全に活用できます。
0.70
Huang et al [45] introduced three sparsity invariant (SI) operations, including SI upsampling, SI average, and SI concatenation, and built an encoder-decoder based HSMNet. Huangら[45]はSIアップサンプリング、SI平均、SI結合を含む3つのSI操作を導入し、エンコーダデコーダベースのHSMNetを構築した。 0.56
They also demonstrated an application using RGB inputs by adding a small branch to HSMNet. 彼らはまた、HSMNetに小さなブランチを追加することでRGB入力を使用したアプリケーションをデモした。 0.58
Chodosh et al [12] formulated the depth completion as a multi-layer convolutional compressed sensing problem and proposed an end-to-end multi-layer dictionary learning algorithm. Chodosh et al [12] は、深度補完を多層畳み込み圧縮センシング問題として定式化し、エンドツーエンドの多層辞書学習アルゴリズムを提案した。 0.70
It is achieved by applying compressed sensing to the deep component analysis (DeepCA) objective [74] and optimizing by ADMM (alternation direction method of multipliers). 深部成分分析(DeepCA)目標[74]に圧縮センシングを適用し,ADMM (alternation direction method of multipliers) により最適化する。 0.75
The over-complete dictionaries are learned with a few convolutional layers via back-propagation. オーバーコンプリート辞書はバックプロパゲーションによっていくつかの畳み込み層で学習される。 0.58
3.2 Normalized CNNs The sparsity-aware methods require validity masks to identify missing values for performing convolutions. 3.2 正規化 cnns sparsity-awareメソッドは、畳み込みを実行するための欠落値を特定するために有効性マスクを必要とする。 0.47
As argued in [21], [50], [101], validity masks can degrade the model performance due to the saturation of the mask at early layers in CNNs. 21], [50], [101] で議論されているように、有効マスクはcnnの初期の層におけるマスクの飽和のためにモデル性能を低下させることができる。 0.79
To tackle this issue, inspired by normalized convolution [55], Eldesokey et al [21] introduced the normalized convolutional neural network (NCNN) that generates continuous uncertainty maps for depth completion. この問題に取り組むために、正規化畳み込み [55] にインスパイアされたeldesokey et al [21] は、深さ完備のための連続不確かさマップを生成する正規化畳み込みニューラルネットワーク (ncnn) を導入した。 0.67
The essential difference is that features obtained using the NCNN are weighed with continuous uncertainty maps instead of binary validity masks. 重要な違いは、NCNNを用いて得られた特徴が二元正当性マスクの代わりに連続不確実性マップで評価されることである。 0.57
In addition, convolution filters are さらに 畳み込みフィルターは 0.48
4 constrained to be non-negative by the SoftPlus function [29] for faster convergence. 4 より高速な収束のためにSoftPlus関数[29]で非負であることを制約する。 0.53
Although NCNN still takes a sparse mask as an initial input, it yields a continuous confidence map to indicate useful information across the intermediate layers. NCNNは依然としてスパースマスクを初期入力としているが、中間層にまたがる有用な情報を示す連続した信頼マップを生成する。 0.75
In reality, disturbed measurements exist due to the LiDAR projection errors. 実際には、LiDARの投射誤差による乱れの測定が存在する。 0.71
The initial sparse confidence input cannot exclude such noisy inputs. 初期スパース信頼入力はそのようなノイズの多い入力を除外できない。 0.65
To solve this problem, Eldesokey et al. この問題を解決するため、Eldesokeyら。 0.73
[20] further developed a self-supervised approach to estimate a continuous input confidence map for suppressing the disturbed measurements with a network. 20]さらに,ネットワークによる乱れ測定を抑制するための連続入力信頼度マップを推定する自己教師付き手法を開発した。 0.74
NCNN is also applied to RGB guided depth completion in [43], [101]. NCNNは[43],[101]のRGB誘導深度補完にも適用される。 0.68
3.3 Training with Auxiliary Images To overcome the lack of semantic cues, Lu et al [68] employed an auxiliary learning branch in their framework. 3.3 補助画像を用いたトレーニング 意味的手がかりの欠如を克服するため,Lu et al [68] はフレームワークに補助的な学習ブランチを採用した。 0.74
Instead of directly using an image as input, they only take a sparse depth map as input and simultaneously predict a reconstructed image and a dense depth map. 画像を直接入力として使用する代わりに、スパース深度マップを入力として取り、再構成画像と密度深度マップを同時に予測する。 0.77
The RGB images are only used in the training stage as a learning objective to encourage acquiring more complementary image features. RGB画像は、より補完的な画像特徴の獲得を促進するための学習目的として、トレーニング段階でのみ使用される。
訳抜け防止モード: RGB画像は学習目的としてトレーニング段階でのみ使用される より補完的なイメージの 獲得を促すためです
0.88
A similar method is also seen in [122] where RGB and normal are used for auxiliary training. 同様の手法が [122] で見られ、RGB と normal が補助訓練に使用される。 0.79
In [102], an autoencoder is employed to generate RGB data in latent space, and then the auto-encoder predicts the final depth from it. 102]では、遅延空間でRGBデータを生成するためにオートエンコーダを使用し、その後、オートエンコーダがその最終深さを予測する。 0.73
Although these methods are RGB guided in training, they aim at performing unguided depth completion in inference. これらの手法はトレーニングではRGBがガイドされるが、推論において誘導されていない深さ補完を実行することを目的としている。 0.45
Therefore, we categorize them into unguided methods. したがって、これらを無誘導の方法に分類する。 0.60
4 RGB GUIDED DEPTH COMPLETION Unguided methods usually underperform RGB guided methods and suffer from blur effect and distortion of object boundaries. 4 RGB GUIDED DEPTH COMPLETION Unguided法は、通常、RGBガイド法を過小評価し、オブジェクト境界のぼやけた効果や歪みに悩まされる。
訳抜け防止モード: 4 RGB GUIDED DEPTH CompleTION Unguided Method は通常 RGB Guided Method を過小評価する オブジェクト境界のぼやけた効果と歪みに苦しむのです
0.89
The RGB images provide plentiful semantic cues, which are critical for filling missing values of objects with irregular shapes. rgb画像は、オブジェクトの欠落した値を不規則な形状で満たすために重要な意味的手がかりを提供する。 0.64
Therefore, the vast majority of previous works seek to employ RGB information to boost depth completion and demonstrate significantly better performance than unguided methods. したがって, 従来の研究の大部分は, RGB 情報を用いて深度を向上し, 誘導されていない手法よりも優れた性能を示すことを目的としている。 0.60
To date, different types of methods have been proposed, and they can be categorized into mainly five types: これまでに様々な方法が提案されており、主に5種類に分類される。
訳抜け防止モード: これまでに様々な方法が提案されている。 主に5つのタイプに分類されます
0.73
1) early fusion models, 1)初期の核融合モデル。 0.74
2) late fusion models, 2)後期核融合モデル。 0.75
3) explicit 3D representation models, 3)明快な3次元表現モデル。 0.75
4) residual depth models, and 4)残留深度モデル及び残留深度モデル 0.81
5) spatial propagation network (SPN) based models. 5)空間伝搬ネットワーク(spn)に基づくモデル。 0.78
4.1 Early Fusion Models Early fusion methods directly concatenate a sparse depth map and an RGB image before passing them through a deep model [16], [71], [79], or aggregate multi-modal features at the first convolutional layer of a model [47], [65], [113]. 4.1早期融合モデルの初期融合方法は、モデル[47], [65], [113]の第1畳み込み層において、深層モデル[16], [71], [79],または集合的マルチモーダル特徴を渡す前に、スパース深度マップとrgb画像を直接結合する。 0.84
Previous methods of early fusion can be divided into two types: methods employing 初期の核融合の方法は2つのタイプに分けられる。 0.64
1) encoder-decoder network and 1)エンコーダデコーダネットワーク及び 0.91
2) two-stage coarse to refinement prediction. 2) 2段階粗粒化予測。 0.69
4.1.1 Encoder-decoder Networks This type of method utilizes a traditional encoder-decoder network (EDN) to solve the pixel-to-pixel regression problem. 4.1.1 Encoder-decoder Networks この方式は、従来のエンコーダ-デコーダネットワーク(EDN)を用いて画素対ピクセル回帰問題を解決する。 0.69
An early work is shown in [71] where Ma et al proposed to accomplish depth completion from both a sparse depth map and its corresponding RGB image. 初期の研究は[71]で、Maらはスパース深度マップと対応するRGB画像の両方から深度補完を実現することを提案した。 0.76
Toward this これに向けて 0.55
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
5 end, they directly concatenated the RGB image and the sparse depth map and then fed them to an encoder-decoder network built on a ResNet-50 network [36]. 5 最後に、rgbイメージとスパース深度マップを直接結合し、resnet-50ネットワーク上に構築されたエンコーダ-デコーダネットワークに送った [36]。 0.61
4.2 Late Fusion Models Late fusion models usually employ two sub-networks to extract features from 4.2 レイトフュージョンモデル レイトフュージョンモデルは通常2つのサブネットワークを使用して特徴を抽出する。 0.57
(i) RGB images using an RGB encoder network, and (i)RGBエンコーダネットワークを用いたRGB画像、及び 0.86
(ii) sparse depth inputs using a depth encoder network. (ii)奥行きエンコーダネットワークを用いたスパース深度入力。 0.76
The fusion is conducted at intermediate layers of the two sub-networks. 融合は2つのサブネットワークの中間層で行われる。 0.79
Most of the previous methods exploit the late fusion strategy with various network structures. 従来の手法のほとんどは、様々なネットワーク構造を持つ後期融合戦略を利用している。 0.64
Specifically, they are categorized into three types: methods employing 具体的には3つのタイプに分類される。 0.74
1) dual-encoder network, 1)デュアルエンコーダネットワーク、 0.82
2) double encoderdecoder network, and 2)ダブルエンコーダデコーダネットワーク、及び 0.88
3) global and local depth prediction. 3)グローバルおよび局所的な深度予測。 0.84
4.2.1 Dual-encoder Networks Methods built on a dual-encoder network (DEN) commonly use an RGB encoder and a depth encoder for extracting multi-modal features. 4.2.1 デュアルエンコーダネットワーク(DEN)上に構築されたデュアルエンコーダネットワークメソッドは、一般的にRGBエンコーダとディープエンコーダを使ってマルチモーダルな特徴を抽出する。 0.63
Then, these features are aggregated and fed into a decoder. そして、これらの機能を集約してデコーダに入力する。 0.69
In [50], Jaritz et al introduced a twobranch encoder network based on a modified NASNet [132], where the intermediate features extracted from all encoders are directly concatenated and then outputted to a decoder. 50]では、jaritzらによって修正されたnasnet [132]に基づく2分岐エンコーダネットワークが導入され、すべてのエンコーダから抽出された中間機能は直接連結され、デコーダに出力される。 0.80
Notably, Jaritz et al verified that the validity mask is not necessary for performance improvement for large networks. 特にjaritzらは、大規模ネットワークのパフォーマンス改善には有効性マスクは必要ないと確認した。 0.70
Instead of direct channel-wise concatenation, features extracted from the RGB encoder and the depth encoder are fused in element-wise summation in [84], [88]. rgbエンコーダと深度エンコーダから抽出された特徴を[84],[88]の要素単位で和で融合する。 0.55
Lately, more complicated fusion strategies have been explored. 近年、より複雑な核融合戦略が研究されている。 0.60
Fu et al [24] improved the straightforward concatenation of RGB and depth features with an inductive fusion adapted from the conditional neural process [28]. Fu et al [24] は条件ニューラルプロセス [28] に適応した誘導核融合により, RGB と深度特徴の直接結合を改善した。 0.84
Zhong et al [130] suggested using the correlation between RGB and depth information. Zhong et al [130] は RGB と深度情報との相関を利用して提案した。 0.76
For this purpose, they proposed the CFCNet which extracts the most semantically correlated features from multi-modal inputs by applying deep canonical correlation analysis [118] between the sparse depth points and their corresponding pixels in RGB images. そこで本研究では,rgb画像中の疎み深度点と対応する画素間の深い正準相関解析 [118] を適用し,マルチモーダル入力から最も意味的に相関した特徴を抽出するcfcnetを提案する。 0.76
The above approaches only fuse the outputted features from the RGB branch and depth branch at a single spatial scale. 上記のアプローチは、rgbブランチと深度ブランチから出力された特徴を単一の空間スケールで融合するだけである。 0.65
To establish a hierarchical joint representation, Zhang et al [126] proposed a multi-scale adaptation fusion network (MAFN). 階層的な共同表現を確立するため、Zhangら[126]はマルチスケール適応融合ネットワーク(MAFN)を提案した。 0.79
The main contribution of MAFN is the adaptation fusion module (AFM) that incorporates features extracted from RGB and depth modalities and passes them to a neighbor attention module to enhance their local neighboring relational information. MAFNの主な貢献は適応融合モジュール(AFM)であり、RGBから抽出された特徴と深度変調を取り入れ、それらを近隣の注意モジュールに渡して、近隣のリレーショナル情報を強化する。 0.81
AFM is applied between the RGB and depth branches at multiple scales, as seen in Fig 3. AFMは、図3に示すように、RGBと深度分岐の間に複数スケールで適用される。 0.82
Fig. 3. The diagram of the multi-scale adaptation fusion network (MAFN). 図3。 マルチスケール適応核融合ネットワーク(MAFN)の図。 0.66
The framework is a dual-encoder network where features extracted from the RGB encoder and the depth encoder are fused with the adaption fusion (AFM) module at multi-scales. フレームワークはデュアルエンコーダネットワークであり、RGBエンコーダと深度エンコーダから抽出された特徴をマルチスケールで適応融合(AFM)モジュールと融合させる。 0.83
From [126]. 126 (複数形 126s) 0.42
Li et al [59] introduced a cascaded hourglass network that consists of a branch (image encoder) used to extract features from images and three hourglass branches used li et al [59]は、画像から特徴を抽出するのに使用される分岐(画像エンコーダ)と使用される3つの分節からなるカスケード砂時計ネットワークを導入した。 0.70
Motivated To better enforce the prediction to be consistent with the measurements, Qu et al [80] replaced the last convolutional layer with a least squares fitting module. 動機 測定値に合致する予測をよりよく強制するため、qu et al [80] は最後の畳み込み層を少なくとも2乗の適合モジュールに置き換えた。 0.70
In this model, the extracted features obtained from the penultimate layer are treated as a set of bases, and the weights of these bases are obtained through a least squares fit on the depths at valid pixels. このモデルでは、ペヌルマート層から得られる抽出された特徴を基底の集合として扱い、これらの基底の重みを有効画素の深さに少なくとも2乗して求める。 0.71
As discussed in the paper [80], the method is unable to handle extremely sparse input due to the lack of supervision with enough depth points. 論文 [80] で論じられているように, 十分な深度点を有する監督の欠如により, 極めてスパースな入力を処理できない。 0.67
spatially-adaptive denormalization (SPADE) [78], Dmitry et al [87] proposed to learn spatiallydependent scale and bias for normalized features. 空間適応性 denormalization (spade) [78], dmitry et al [87] は正規化特徴の空間依存スケールとバイアスを学ぶことを提案した。 0.54
They introduced a novel decoder assembled with SPADE blocks with a modulation branch. 彼らはSPADEブロックと変調分岐を備えた新しいデコーダを導入した。 0.66
The modulation branch takes the valid mask as input and predicts multi-scale modulation signals. 変調ブランチは、有効マスクを入力とし、マルチスケール変調信号を予測する。 0.65
These modulation signals are sent to the multiple SPADE blocks in the decoder at each spatial scale to update features. これらの変調信号は、各空間スケールのデコーダ内の複数のSPADEブロックに送信され、特徴を更新する。 0.78
The method’s effectiveness has been validated on both indoor depth enhancement and outdoor depth completion. 本手法の有効性は,室内深度向上と屋外深度改善の両面で検証されている。 0.79
by Instead of the direct concatenation, several approaches [47], [65], [70], [124] used two separate convolutional units to extract features from RGB and depth input at the first layer of the encoder-decoder network, respectively. ところで 直接結合の代わりに、[47], [65], [70], [124] の2つの分離した畳み込みユニットを使用して、それぞれエンコーダデコーダネットワークの第1層におけるRGBと深さ入力の特徴を抽出した。 0.70
Then, the multi-modal features were concatenated and sent to the rest of the layers to obtain a complete depth map. その後、マルチモーダルな特徴を連結し、残りの層に送信して完全な深度マップを得る。 0.68
4.1.2 Coarse to Refinement Prediction Some methods employ a two-stage coarse to refinement prediction (C2RP) to achieve more accurate depth estimation. 4.1.2 粗粒化予測のためのいくつかの手法では、より正確な深さ推定を達成するために2段階粗粒化予測(c2rp)を用いる。
訳抜け防止モード: 4.1.2 微細化予測のための2段階粗い手法(C2RP) より正確に深度を推定できます
0.83
This kind of methods firstly estimates a coarse depth map in the first coarse prediction stage, then applies the second refinement prediction from the coarse depth map and the RGB image. この種の手法は、まず第一粗い予測段階における粗い深度マップを推定し、次に粗い深度マップとRGB画像から第二粗い深度予測を適用する。 0.81
For instance, Dimitrievski et al [16] integrated a learnable morphological operator (two contraharmonic mean filter layers [72]) into a U-net [82] based framework. 例えば、Dimitrievski ら [16] は学習可能な形態演算子 (2つの反調和平均フィルタ層 [72]) を U-net [82] ベースのフレームワークに統合した。 0.78
After the morphological operation, the predicted coarse depth map and the RGB image are passed through a UNet to get a refined output. 形態的操作後、予測された粗い深さマップとRGB画像がUNetを通過して洗練された出力を得る。 0.75
Similarly, Hambarde et al [34] proposed S2DNet which consists of two pyramid networks: S2DCNet and S2DFNet. 同様に、HambardeらはS2DCNetとS2DFNetという2つのピラミッドネットワークからなるS2DNetを提案した。 0.66
The S2DCNet performs the first coarse prediction, and the S2DFNet performs the second refinement. S2DCNetは第1の粗い予測を行い、S2DFNetは第2の洗練を行う。 0.66
. Unlike the above methods, several methods proposed to generate multiple depth maps in the coarse prediction stage. . 上記の方法とは異なり、粗い予測段階で複数の深度マップを生成する方法が提案されている。 0.55
For instance, Chen et al [8] generated a dense map with the nearest neighbor interpolation and a prior distance map between depth points based on a Euclidean distance transform. 例えば、Chen et al [8] は、近くにある補間とユークリッド距離変換に基づく深さ点間の事前距離写像を持つ密写像を生成する。 0.66
Recently, Hedge et al [37] proposed the DeepDNet. 最近、 hedge et al [37] は deepdnet を提案した。 0.72
The main difference from [8] is that, in the coarse prediction stage, the original sparse input is first transformed into a grid sparse depth map with quad tree based preprocessing. 8]との主な違いは、粗い予測段階では、元のスパース入力が最初にクアッドツリーベースの前処理を伴うグリッドスパース深さマップに変換される点である。 0.77
Then, two coarse maps are generated by applying the nearest neighbor interpolation and Bi-cubic interpolation from the grid sparse map, respectively. 次に、グリッドスパースマップから近接近傍補間と双キューブ補間をそれぞれ適用して2つの粗写像を生成する。 0.77
The idea of rectifying from a coarse prediction is also frequently leveraged in subsequent studies, such as those built on SPNs and residual depth learning frameworks. 粗い予測から修正するという考え方は、SPNや残留深度学習フレームワークなど、その後の研究でも頻繁に活用されている。 0.69
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
to extract features from depth at different scales (1/4, 1/2, 1). 異なるスケール(1/4,1/2, 1)の深さから特徴を抽出する。 0.73
The feature maps obtained from the image encoder at different scales are merged with the corresponding depth features by skip connection. 異なるスケールで画像エンコーダから得られた特徴マップをスキップ接続により対応する深さ特徴とマージする。 0.81
The ground truth is downsampled to different scales to make use of the multi-scale supervision. 基盤となる真実は、マルチスケールの監督を利用するために、異なるスケールにダウンサンプリングされる。
訳抜け防止モード: 根底にある真実は、異なるスケールに見下ろされている マルチスケールの監視を利用する。
0.55
To better tackle the sparsity, many works seek to exploit additional constraints to guide the learning process. スパーシリティにもっと取り組むために、多くの研究が学習プロセスを導くために追加の制約を活用しようとしている。 0.63
A common solution is to apply epipolar constraints between temporally adjacent frames [13], [23], [90], [107], [108], [109], [110], or stereo pairs [88], [119]. 一般的な解決策は、時間的に隣接するフレーム [13], [23], [90], [107], [108], [109], [110], あるいはステレオペア [88], [119] の間でエピポーラ制約を適用することである。 0.88
Another constraint is adversarial loss which comes from adversarial training with the use of a generative adversarial network (GAN) [31]. もうひとつの制約は,GAN(Generative Adversarial Network)[31]を用いた対人訓練による対人損失である。 0.75
Although these constraints provide unsupervised guidance to the models for the depth completion task, they require additional inputs or other guidance networks during their training. これらの制約は、深度完了タスクのモデルに対して教師なしのガイダンスを提供するが、トレーニング中に追加の入力やその他のガイダンスネットワークが必要である。 0.56
4.2.2 Double encoder-decoder Networks As discussed above, DEN-based methods usually consist of an RGB encoder, a depth encoder, and a decoder. 4.2.2 ダブルエンコーダ-デコーダネットワーク 上記のように、デンベースの手法は通常、rgbエンコーダ、深度エンコーダ、デコーダで構成される。 0.71
The fusion is conducted between the two encoders. 融合は2つのエンコーダ間で行われる。 0.82
A double encoderdecoder network (DEDN) is an improvement of the dualencoder network. ダブルエンコーダデコーダネットワーク(dedn)は、デュアルエンコーダネットワークの改良である。 0.77
A vanilla DEDN contains two encoderdecoder networks. バニラDEDNは2つのエンコーダデコーダネットワークを含む。 0.67
In like manner, one takes an image input, and the other takes sparse depth input. 同様に、画像入力を受け取り、もう1つは奥行きの少ない入力を受け取ります。 0.64
The image network is also called the guided network. イメージネットワークはガイドネットワークとも呼ばれる。 0.74
For methods built on DEDN, the fusion is usually conducted between the decoder of the image branch and the encoder of the depth branch at multi-scales. DEDN上に構築されたメソッドの場合、画像ブランチのデコーダと深度ブランチのエンコーダとをマルチスケールで融合させるのが普通である。 0.78
As a representative method depicted in Fig 4, GuideNet [93] aims to learn a more effective fusion of RGB and depth features. 図4に示す代表的手法として GuideNet [93] は,RGB と深度特徴のより効果的な融合を学習することを目的としている。 0.75
Inspired by guided image filtering [35] and bilateral filtering [96], GuideNet introduced the guided convolution which automatically generates spatially-variant kernels from the image features and applies them to assign weights to the depth features. guided image filtering [35] とtwo filtering [96] にインスパイアされた GuideNet は,画像特徴から空間変動カーネルを自動的に生成し,重みを奥行き特徴に割り当てるガイド付き畳み込みを導入した。 0.86
The guided convolution is applied to multi-scale image features. 誘導畳み込みはマルチスケール画像の特徴に適用される。 0.72
To reduce the computational complexity, motivated by MobileNet-V2 [85], the guided convolution is factorized into a channel-wise and a crosschannel convolution. mobilenet-v2 [85] に動機づけられた計算複雑性を低減するため、誘導畳み込みはチャネル回りとクロスチャネル畳み込みに分解される。 0.61
Fig. 4. The architecture of the GuideNet. 図4。 ガイドネットのアーキテクチャ。 0.58
The framework is a double encoder-decoder network in which the guided convolution learns fusion kernels from RGB features and applies them to depth features. このフレームワークは二重エンコーダ・デコーダネットワークであり、ガイドされた畳み込みはRGB機能から融合カーネルを学び、深度機能に適用する。 0.76
From [93]. Inspired by [93] and [98], Schuster et al [86] proposed sparse spatial guided propagation (SSGP) which combines image guided spatial propagation and sparsity convolution. 93]から。 93] と [98] にインスパイアされた schuster et al [86] は、画像誘導空間伝播とスパース性畳み込みを組み合わせたスパース空間誘導伝播 (ssgp) を提案した。 0.64
SSGP is applicable to not only depth completion but also other interpolation problems such as optical flow and scene flow. SSGPは深度補完だけでなく、光学フローやシーンフローなどの補間問題にも適用可能である。 0.71
More recently, Yan et al [117] proposed RigNet with 最近では、yan et al [117] が rignet を提案 0.71
6 a novel repetitive design to handle blurry object boundaries and better recover scene structures. 6 ぼやけたオブジェクト境界を処理し、シーン構造を回復する、新しい反復設計。 0.59
In RigNet, the branch used for extracting image features is implemented using a repetitive hourglass network (RHN), i.e., multiple encoderdecoder networks, to produce perceptually clear image features. RigNetでは、複数のエンコーダデコーダネットワークという繰り返し時間ガラスネットワーク(RHN)を用いて画像特徴抽出用のブランチを実装し、知覚的に明瞭な画像特徴を生成する。 0.79
The branch of RigNet used for extracting depth features is also a hourglass network stacked with a repetitive guidance module (RG). 奥行き特徴の抽出に用いられるRigNetのブランチは、繰り返し誘導モジュール(RG)を積み重ねた時間ガラスネットワークでもある。 0.69
RG plays a similar role as the guided convolution [93] and is built on dynamic convolution [6]. RGはガイドされた畳み込み[93]と同じような役割を果たし、動的畳み込み[6]の上に構築されます。
訳抜け防止モード: RGは誘導畳み込み[93]と同様の役割を果たす 動的畳み込み [6 ] 上に構築されています
0.87
Since RG implements dynamic convolution repetitively, the convolution factorization proposed in [93] becomes less efficient. RGは動的畳み込みを繰り返し実施するため、[93]で提案される畳み込み分解は効率が低下する。 0.70
Thus, they designed an efficient guidance algorithm in which the kernel size in the channel-wise convolution drops from 3×3 to 1×1 by using global average pooling. そこで彼らは,グローバル平均プールを用いて,チャネルワイド畳み込みにおけるカーネルサイズを3×3から1×1に下げる効率的な誘導アルゴリズムを設計した。 0.70
RigNet achieves an extraordinary performance and currently ranks second on the KITTI depth completion dataset [98]. RigNetは素晴らしいパフォーマンスを達成し、現在、KITTIの深さ補完データセット[98]で第2位です。 0.64
4.2.3 Global and Local Depth Prediction In several prior works, RGB and LiDAR data are referred to as global information, and the LiDAR data is referred to as local information. 4.2.3 グローバルおよびローカル深度予測 以前のいくつかの作業では、RGBおよびLiDARデータはグローバル情報と呼ばれ、LiDARデータはローカル情報と呼ばれる。 0.85
The global and local depth prediction (GLDP) methods employ a global network to infer depth from global information and a local network to estimate depth from local information. グローバルおよびローカル深度予測(GLDP)手法では,グローバル情報から深度を推定するグローバルネットワークと,ローカル情報から深度を推定するローカルネットワークを用いる。 0.88
The final dense depth map is obtained by merging the outputs of the global and local networks. 最終深度マップは、グローバルネットワークとローカルネットワークの出力をマージすることによって得られる。 0.80
To exploit both the global and local features, a global depth and local depth map, as well as related confidence maps, were predicted in [99]. グローバルとローカルの両方の特徴を利用するため、[99]では、グローバル深度マップとローカル深さマップ、および関連する信頼度マップが予測された。 0.74
The confidence map predicted at each branch was used as a cross-guidance to refine the depth map predicted by the other branch. 各ブランチで予測される信頼マップは、他のブランチによって予測される深度マップを洗練するためのクロスガイダンスとして使用された。
訳抜け防止モード: 各ブランチで予測される信頼マップをクロスガイダンスとして使用した。 他の枝から予測される深度マップを精査して
0.71
A similar method was also introduced in [58] where Lee et al made two improvements. 同様の手法が[58]で導入され、Leeらは2つの改善を行った。 0.74
First, in order to extend the receptive field, they designed a residual atrous spatial pyramid (RASP) block to replace the traditional residual block. 第一に、受容場を拡張するために、従来の残留ブロックを置き換えるために残留アラス空間ピラミッド(RASP)ブロックを設計した。 0.81
Second, unlike [99] where the confidence map was directly used to refine a depth map via element-wise multiplication, they introduced a new guidance module that applies both channel-wise and pixel-wise attention operations. 第2に, [99] の信頼マップが, 要素倍数による深度マップの精密化に直接使用されるのとは異なり, チャネルワイドと画素ワイドの両方の注意操作を適用した新しいガイダンスモジュールを導入した。 0.68
The same framework was likewise used to address depth completion from the extremely sparse depths in order to explore depth completion from single-line depth maps in [67]. 同じ枠組みは, [67] における単線深度マップからの深度補完を探索するために, 非常に疎度な深度からの深度補完に利用された。 0.80
4.3 Explicit 3D Representation Models Most previous studies of RGB guided depth completion learn 3D geometric relationships in an implicit yet ineffective manner. 4.3 明示的な3次元表現モデル RGB誘導深度補完に関する最近の研究は、暗黙的かつ非効率な方法で3次元幾何学的関係を学習する。 0.63
Typically, the difficulty comes from the incapability of normal 2D convolution to capture the 3D geometric clues from the sparse input where the observed depth values are irregularly distributed. 通常は、観察された深さ値が不規則に分布するスパース入力から3次元の幾何学的手がかりをキャプチャする通常の2次元畳み込みが不可能である。 0.72
Hence, another type of previous approaches promotes explicit 3D representations (E3DR). したがって、他の種類のアプローチは明示的な3d表現(e3dr)を促進する。 0.57
Previous methods of this type can be classified into the methods employing このタイプの従来手法は、採用方法に分類することができる。 0.67
1) 3D-aware convolution, 1)3D対応コンボリューション 0.72
2) intermediate surface normal representation, and 2)中間面正規表現,及び 0.64
3) methods of learning geometric representations from point clouds. 3)点雲から幾何学的表現を学ぶ方法。 0.76
4.3.1 3D-aware Convolution In [7], features extracted from an RGB branch and a depth branch are fused by several 2D-3D fusion blocks that jointly learn 2D and 3D representations. 4.3.1 3D対応の畳み込み[7]では、RGBブランチと深さブランチから抽出された特徴を複数の2D-3D融合ブロックで融合し、2Dおよび3D表現を共同学習する。 0.63
The 2D-3D fusion block 2D-3D融合ブロック 0.68
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
uses a multi-scale branch to extract appearance features in 2D grid space with normal convolution operations, and a branch to learn 3D geometric representations by applying two continuous convolutions [103] on K-nearest neighbors of a center point in 3D space. 正規畳み込み演算を持つ2次元格子空間の外観特徴を多スケール分岐で抽出し、3次元空間の中心点のk-ネアレスト近傍に2つの連続畳み込み [103] を適用して3次元幾何学表現を学ぶ。 0.79
The idea of learning from spatially close K-nearest neighbors is then commonly employed in subsequent studies. 空間的に密接なk-ネアレストの隣人から学ぶという考えは、その後の研究で一般的に用いられる。 0.51
For instance, in the ACMNet [129], the nearest neighbors are identified similarly by comparing the spatial differences. 例えば、ACMNet[129]では、近接する隣人も同様に空間差を比較して識別する。 0.72
Unlike [7], the non-grid convolution is implemented by graph propagation. 7]とは異なり、非グリッド畳み込みはグラフ伝搬によって実装される。 0.63
As seen in Fig 5, ACMNet has a DEDN structure where the encoder is composed of coattention guided graph propagation modules (CGPMs), and the decoder is a stack of symmetric gated fusion modules (SGFMs). 図5に示すように、ACMNet は DEDN 構造を持ち、エンコーダはグラフ伝播モジュール(CGPM)で構成され、デコーダは対称ゲート融合モジュール(SGFM)のスタックである。 0.70
CGPM adaptively applies attention based graph propagation in both the image and depth encoders for multi-modality feature extraction, and SGFMs apply symmetric cross guidance between two decoders for multimodality feature fusion. cgpmはマルチモダリティ特徴抽出のための画像と深度エンコーダの両方に注意に基づくグラフ伝搬を適応的に適用し、sgfmsはマルチモダリティ特徴融合のための2つのデコーダ間の対称クロスガイダンスを適用する。 0.65
Fig. 5. The diagram of the ACMNet where the encoder uses several coattention guided graph propagation modules (CGPMs) for multi-modality feature extraction and the decoder uses several symmetric gated fusion modules (SGFMs) for multi-modality feature fusion. 図5。 エンコーダは多モード特徴抽出に複数の有意グラフ伝搬モジュール(CGPM)を使用し、デコーダは複数の対称ゲート融合モジュール(SGFM)を多モード特徴融合に使用するACMNetのダイアグラムである。 0.72
From [129]. Xiong et al [112] considered a graph model for depth completion and introduced a graph neural network (GNN) based depth completion algorithm. 129]から。 Xiong et al [112] は深さ補完のためのグラフモデルを検討し、グラフニューラルネットワーク(GNN)に基づく深さ補完アルゴリズムを導入した。 0.66
Note that the 3D graph of nearest neighbors is only constructed for a valid point in [7], [129], while it is constructed for each point from a pre-enhanced dense depth map in [112]. 近辺の3dグラフは[7],[129]の有効点に対してのみ構築されるが、[112]の事前濃密深度マップから各点に対して構築されていることに注意されたい。 0.80
4.3.2 Intermediate Surface Normal Representation A few works utilized surface normal as an intermediate 3D representation of depth map and introduced methods employing surface normal guided completion. 4.3.2 中間表面の正規表現 表面の正規表現を深度マップの中間3次元表現として利用し、表面の正規表現完備化手法を導入した作品は少ない。
訳抜け防止モード: 4.3.2 中間面正規表現 深度マップの中間3次元表現として表面正規性を利用する作品 表面を正常に誘導する 方法を紹介しました
0.75
As studied in [44], [125], surface normal is a reasonably intermediate representation and can promote indoor depth enhancement. 44],[125]で研究されたように, 表面正規化は適度に中間的な表現であり, 室内深度向上を促進することができる。 0.73
However, as pointed out by Qiu et al [79] that reconstructing depth from normal in outdoor scenes is more sensitive to noise and occlusion; how to utilize surface normal in this case is still an open question. しかし、qiuらによって指摘されているように、屋外のシーンでは正常な深さからの復元の方がノイズや閉塞に敏感であり、このケースではサーフェスノーマルをどのように活用するかはまだ疑問の余地がある。
訳抜け防止モード: しかし、qiu et al [ 79 ] が指摘したように 屋外場面における正常な奥行きからの復元は, 騒音や咬合に敏感である この場合、surface normalの使い方はまだ未解決の問題です。
0.75
To address this issue, they proposed DeepLIDAR, a two-branch network consisting of a color pathway and a surface normal pathway depicted in Fig 6. この問題に対処するため、彼らはdeeplidarを提案した。これはカラーパスとfig 6に描かれた表面正常パスからなる2つの分岐ネットワークである。
訳抜け防止モード: この問題に対処する。 彼らは色経路からなる2分岐ネットワークであるDeepLIDARを提案した 表面の正常な経路を図6に示す。
0.76
Both branches produce a dense depth map. 両方の枝は密度の深い深度写像を生成する。 0.56
In the surface normal branch, surface normal is utilized as the intermediate representation of the produced depth map. 表面正規分岐では、生成した深度マップの中間表現として表面正規が使用される。 0.78
The use of surface normal is straightforward for the method proposed in [79]. 表面正規化は[79]で提案された手法にとって単純である。 0.76
As argued in [113], the relation between depth and surface normal can be established via 113]で議論されたように 深さと表面正常の関係は 0.64
7 Fig. 6. The pipeline of the DeepLIDAR where surface normal is used as an intermediate representation of a depth map. 7 図6。 表面正常なディープLIDARのパイプラインは深度マップの中間表現として使用される。 0.58
From [79]. the tangent plane equation in the camera coordinate system. 79]から。 カメラ座標系における接平面方程式 0.61
By this intuition, Xu et al [113] proposed the plane-origin distance that forces the consistency between depth and surface normal to regularize depth completion. この直観から、xuらは深さと表面の正常な一貫性を強要して深さの完備性を定式化する平面オリジン距離を提案した。 0.68
4.3.3 Learning from Point Clouds Recently, a few studies directly learned geometric representations from point clouds. 4.3.3 ポイントクラウドからの学習 最近、ポイントクラウドから直接幾何学的表現を学んだ研究がいくつかある。
訳抜け防止モード: 4.3.3 ポイントクラウドからの学習 いくつかの研究は点雲から幾何学表現を直接学んでいる。
0.67
For example, Du et al [19] proposed to firstly learn a geometric-aware embedding from point clouds with edge convolution [104]. 例えば、du et al [19] はまずエッジ畳み込みを伴う点雲から幾何認識埋め込みを学ぶことを提案した [104]。 0.77
Then, a DEN was utilized to perform depth completion from RGB images and geometric embeddings. そして、DENを用いてRGB画像と幾何学的埋め込みから深度補完を行う。 0.78
Jeon et al [51] also used a point cloud as input. jeon et al [51] もポイントクラウドを入力として使用しました。 0.70
By incorporating the attention mechanism into bilateral convolution [92], they designed an attention bilateral convolutional layer (ABCL) based encoder for feature extraction from 3D point clouds. 注意機構を両側畳み込み [92] に組み込むことにより, 3次元点雲の特徴抽出のための注意畳み込み層(abcl)ベースのエンコーダを設計した。 0.80
Their framework also implements a DEN where a point cloud encoder is used to extract 3D features, and an image encoder is used to extract 2D features from an RGB image and a sparse depth input. 彼らのフレームワークはまた、ポイントクラウドエンコーダを使用して3D特徴を抽出するDENを実装し、画像エンコーダを用いてRGB画像とスパース深度入力から2D特徴を抽出する。 0.82
4.4 Residual Depth Models Residual depth models (RDMs) predict a depth map and a residual map, and their linear combination obtains the final depth. 4.4 残留深度モデル 残留深度モデル(RDM)は深度マップと残差マップを予測し、その線形結合により最終深度を求める。 0.82
Through the prediction of the residual map, the model can refine the blur depth prediction and yield finer results on object boundaries. 残差マップの予測を通じて、モデルはぼやけ深さの予測を洗練し、オブジェクト境界でより細かい結果が得られる。 0.79
These methods usually apply a two-stage coarse to refinement prediction procedure. これらの手法は通常、2段階の粗さを精細化予測に応用する。 0.58
A simple application is shown in [60] where a sparse depth map is firstly completed to a dense map, and a residual map is then predicted. 簡単な応用は[60]に示され、まずスパース深度マップが高密度マップに完成し、その後残留マップが予測される。 0.69
Finally, the element-wise summation of them generates the final depth map. 最後に、要素単位での和は最終深度マップを生成する。 0.79
Gu et al [32] proposed DenseLIDAR, a similar method as shown in Fig 7. Gu et al [32] は,図 7 に示すような DenseLIDAR を提案している。 0.73
In DenseLIDAR, a pseudo depth map with morphological operations is firstly predicted. DenseLIDARでは、まず形態的操作を持つ擬似深度マップを予測する。 0.70
. Then, the pseudo depth map, the RGB image, and the sparse depth input are sent to a CNN to predict a residual map. . そして、擬似深度マップ、RGB画像、スパース深度入力をCNNに送信して残差マップを予測する。 0.50
Finally, the pseudo depth map is rectified with the residual map to yield the final depth map. 最後に、擬似深度マップを残差マップで修正して最終深度マップを生成する。 0.69
Fig. 7. The pipeline of the DenseLIDAR where depth completion is decomposed as learning of a coarse depth map and a residual depth map. 第7話。 奥行き完了を粗度マップと残差深さマップの学習として分解する密集度ライダーのパイプライン。
訳抜け防止モード: 第7話。 DenseLIDARのパイプライン 深さ完了は粗い深さマップと残留深さマップの学習として分解される。
0.59
From [32]. For other approaches, the improvement is derived from boosting the estimation of either the coarse depth map or 32]から。 他のアプローチでは、改善は粗い深さマップまたは粗い深さマップの推定を増加させることから導かれる。 0.55
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
the residual depth map. For instance, motivated by kernel regression, a differentiable kernel regression network was proposed to replace the hand-crafted interpolation for performing the coarse depth prediction from the sparse input in [62], [75]. 残存深度マップ。 例えば, [62], [75]のスパース入力から粗い深さ予測を行うために, 手作りの補間を置き換えるために, カーネル回帰ネットワークが提案されている。 0.63
In addition, FCFR-Net [63] implemented an energy based operation for multi-modal feature fusion to boost the residual map learning. さらに, FCFR-Net[63]は, 残差マップ学習を促進するために, マルチモーダル特徴核融合のためのエネルギーベース操作を実装した。 0.71
Aiming at handling the uneven distribution and dealing with the outlier issue, Zhu et al [131] introduced a novel uncertainty based framework which consists of two networks: a multi-scale depth completion block and an uncertainty attention residual learning network. Zhuら[131]は,不均一分布の処理と不確実性問題への対処を目的として,マルチスケール深度補完ブロックと不確実性注意残差学習ネットワークという2つのネットワークからなる,新しい不確実性ベースのフレームワークを導入した。 0.70
Like other residual based methods, the former network yields a coarse prediction, and the later network performs refinement. 他の残差ベース手法と同様に、前者のネットワークは粗い予測を導き、後者のネットワークは改良を行う。 0.78
The uncertainty based framework prevents over-fitting from outliers by relaxing constraints of the highly uncertain regions in the first completion stage and guides the network to generate the residual map in the refinement stage. 不確実性に基づくフレームワークは、第1の完了段階における高度不確実性領域の制約を緩和することにより、異常値の過剰フィッティングを防止するとともに、ネットワークを誘導して、改良段階における残留マップを生成する。
訳抜け防止モード: 不確実性に基づくフレームワークは、過剰フィッティングを異常値から防ぐ 初期完成期における高度不確実領域の緩和制約 ネットワークを誘導し 精錬段階における残留地図を生成する。
0.81
Zhang et al [127] combined the late fusion with residual learning and proposed a DEN-based multi-cue guidance network. Zhangら[127]は、後期融合と残留学習を組み合わせ、DENベースのマルチキュー誘導ネットワークを提案した。 0.63
Unlike other methods, the final depth is the combination of the sparse input and the estimated residual map. 他の方法とは異なり、最終的な深さはスパース入力と推定残差マップの組み合わせである。 0.79
4.5 SPN-based Models An affinity matrix, also called a similarity matrix, expresses how close or similar data points are to each other. 4.5 spnベースのモデル アフィニティ行列(英: affinity matrix)または類似度行列(英: similarity matrix)は、互いに近接しているか類似しているかを表す。
訳抜け防止モード: 4.5 SPN-ベースモデル 類似行列とも呼ばれる親和性行列。 データポイントが互いにいかに近いかを表現する。
0.75
It is used to refine and gain a fine-grained prediction in vision tasks. ビジョンタスクの細かな予測を洗練し、得るために使用される。 0.62
In spatial propagation networks (SPN) [64], learning an affinity matrix is formulated as learning a group of transformation matrices. 空間伝播ネットワーク(SPN)[64]では、親和性行列の学習を変換行列のグループ学習として定式化する。 0.78
Following [64], [77], the affinity refinement process of SPN is defined by SPNの親和性改善過程は[64],[77]に従って定義される。 0.70
xt m,n = wc xt m,n = wc 0.42
m,nxt−1 m,n + m,nxt−1 m,n + 0.41
m,nxt−1 wi,j m,nxt−1 wi,j 0.46
i,j (4) (cid:88) i.j. (4) (cid:88) 0.40
i,j∈(cid:78)m,n i,j(cid:78)m,n 0.43
m,n and wi,j i,j∈(cid:78)m,n wi,j m,n,wi,j I,j(cid:78)m,n wi,j 0.39
m,n = 1 −(cid:80) m,n = 1 −(cid:80) 0.49
where (m, n) and (i, j) denote the coordinates of reference and neighbor pixels, respectively, and (cid:78)m,n is a set of neighbor pixels of the reference pixel at (m, n). ここで (m, n) と (i, j) はそれぞれ参照ピクセルと隣接するピクセルの座標を表し、 (cid:78)m,n は参照ピクセルの (m, n) における隣接ピクセルの集合である。 0.83
t denotes the iteration step of refinement. t は洗練の反復段階を表す。 0.67
wc m,n are the affinity of the reference pixel and the affinity between the pixels at (m, n) and (i, j), respectively, where wc m,n. wc m,n は基準画素の親和性であり、それぞれ (m, n) と (i, j) の画素間の親和性である。
訳抜け防止モード: wc m, nは基準画素の親和性である m, n)のピクセル間の親和性 および (i, j) であり, wc m, n。
0.62
Since a depth point is correlated to its neighbors, the SPN is reasonably applicable to depth regression problems, and a family of previous studies developed their algorithms based on SPNs. 深度点はその近傍と相関しているため、SPNは深度回帰問題に合理的に適用でき、以前の研究のファミリーはSPNに基づいてアルゴリズムを開発した。 0.80
Cheng et al proposed the pioneering convolutional spatial propagation network (CSPN) [11], [100] which is the first SPN-based model used for depth completion. Chengらが提案したCSPN[11], [100]は, 深度補完に使用される最初のSPNモデルである。
訳抜け防止モード: Chengらは、進化的畳み込み空間伝播ネットワーク(CSPN) [11 ]を提案した。 [100 ] 深度補完に使用される最初のSPNベースのモデルである。
0.83
Compared to the original SPN [64], CSPN has two major improvements. オリジナルのSPN [64]と比較して、CSPNには2つの大きな改善がある。 0.64
First, in SPN, a point is linked to three local neighbors from the nearest row or column, while in CSPN, a 3 × 3 local window is used to connect local neighbors. まず、SPNでは、最も近い行や列から3つのローカルな隣人とリンクし、CSPNでは3×3のローカルウィンドウを使用して、近隣の隣人を接続する。 0.80
Second, CSPN efficiently propagates a local area in all directions via a convolution operation instead of propagating in different directions and integrating with max-pooling as SPN. 第2に、CSPNは、異なる方向を伝播する代わりに、畳み込み操作によって全方向の局所領域を効率的に伝播し、SPNとして最大プーリングと統合する。 0.60
The final value of a depth point is determined by its local neighbors via the diffusion process with the affinity matrix. 深さ点の最終値は、アフィニティ行列を持つ拡散過程を通じて局所近傍によって決定される。 0.79
Specifically, the network proposed in [71] is modified with skip connections and an additional output branch to generate the affinity matrix. 具体的には[71]で提案されるネットワークをスキップ接続と追加出力分岐で変更して親和性行列を生成する。 0.79
Given a coarse predicted depth map and the affinity matrix, a CSPN is plugged into the network [71] for refinement, as shown in 粗い予測深度マップと親和性行列とが与えられた場合、CSPNをネットワーク[71]に接続して改良を行う。 0.72
Fig. 8. The hyper-parameters including kernel size (size of local neighbors) and the number of iterations, need to be tuned by hyper-parameter search. 図8。 カーネルサイズ(ローカル近傍のサイズ)やイテレーション数を含むハイパーパラメータは、ハイパーパラメータ探索によってチューニングする必要がある。 0.68
8 Fig. 8. The framework of CSPN based depth completion. 8 図8。 CSPNベースの深さ補完のフレームワーク。 0.60
The CSPN module is plugged into the network to rectify a coarsely predicted depth map. CSPNモジュールはネットワークに挿入され、粗い予測深度マップを修正する。 0.74
From [100]. 100 (複数形 100s) 0.52
To solve the difficulty of determining kernel sizes and iteration numbers, Cheng et al further proposed CSPN++ [10] that enables an context aware CSPN (CA-CSPN) and an resource aware CSPN (RA-CSPN). カーネルサイズとイテレーション数を決定することの難しさを解決するため、chengらはさらに文脈認識cspn(ca-cspn)と資源認識cspn(ra-cspn)を可能にするcspn++[10]を提案した。
訳抜け防止モード: カーネルサイズやイテレーション数を決定するのが困難になる。 ChengらはさらにCSPN++ [10 ]を提案している。 そしてリソースを意識した CSPN ( RA - CSPN )。
0.70
For the implementation of CA-CSPN, various configurations of kernel sizes and numbers of iterations are first defined, and two extra hyper-parameters are introduced to weigh different kernel sizes and iterations adaptively. ca-cspnの実装では、カーネルサイズとイテレーション数の様々な構成を最初に定義し、2つの余分なハイパーパラメータを導入し、異なるカーネルサイズとイテレーションを適応的に重み付ける。 0.63
Thus, CA-CSPN consumes a large number of computational resources. そのため、CA-CSPNは大量の計算資源を消費する。 0.71
To tackle this issue, RA-CSPN selects the best kernel size and number of iterations for each pixel by minimizing the computational resource usage. この問題に対処するため、RA-CSPNは計算資源使用量を最小限に抑えて各ピクセルのカーネルサイズとイテレーション数を選択する。 0.76
To this end, a computational cost function is aggregated to the optimization target to balance the tradeoff between accuracy and training time. これにより、計算コスト関数を最適化対象に集約し、精度とトレーニング時間のトレードオフをバランスさせる。 0.77
While CSPN and CSPN++ mainly focus on the refinement from an existing encoder-decoder method [71], PENet [42] takes advantage of both SPN and late fusion models. CSPNとCSPN++は、主に既存のエンコーダデコーダメソッド[71]の洗練に焦点を当てているが、PENet[42]はSPNと後期融合モデルの両方を利用する。 0.70
PENet uses the DEDN structure where one network predicts from RGB images and sparse depths, and the other network predicts from sparse depths and a pre-densified depth map. penetは、あるネットワークがrgb画像とスパース深度から予測するdedn構造を使用し、もう一方のネットワークがスパース深度とプリデンス深度マップから予測する。
訳抜け防止モード: PENet は DEDN 構造を使用します あるネットワークはRGB画像とスパース深度から予測します そして、他のネットワークはスパース深度とプレデンシフィケート深度マップから予測する。
0.86
A CSPN++ is then applied to the fused depth map of these predictions. CSPN++はこれらの予測の融合深度マップに適用される。 0.78
The above methods use fixed local neighbors for spatial propagation during affinity learning. 上記の方法は、親和性学習中の空間伝播に固定された局所近傍を用いる。 0.55
However, this will involve the unnecessary use of irrelevant local neighbors. しかし、これは無関係な近隣住民の不要な利用を伴う。 0.69
To address this problem, Park et al proposed a non-local SPN [77] where non-local neighbors with affinities and a depth confidence map are learned, and the propagation is implemented through the K non-local neighbors. この問題に対処するため、Parkらは非ローカルなSPN[77]を提案し、非ローカルな近親者や深度信頼マップが学習され、K非ローカルな近親者を通して伝播を行う。 0.65
Besides, they also designed the confidence-incorporated affinity normalization module to encourage more affinity combinations and reduce the negative effect of unreliable depth values. さらに、信頼性を組み込んだアフィニティ正規化モジュールも設計し、より親和性の組み合わせを奨励し、信頼できない深さ値の悪影響を低減した。 0.55
In [114], a deformable spatial propagation network (DSPN) is proposed to adaptively generate different receptive fields and affinity matrices for each pixel. 114]では、各画素に対して異なる受容場と親和性行列を適応的に生成するために、変形可能な空間伝搬ネットワーク(DSPN)を提案する。 0.73
Likewise, [61] introduced attention based dynamic SPN (DySPN) that can learn an adaptive affinity matrix by decoupling neighboring pixels based on their distances. 同様に,[61] は注目に基づく動的SPN (DySPN) を導入し,その距離に基づいて隣接画素を分離することで適応親和性行列を学習した。 0.74
Such attention mechanism recursively generates different attention maps to refine the affinity matrix and bring us the new state-of-the-art method for depth completion. このような注意機構は、アフィニティ行列を洗練させるために異なる注意マップを再帰的に生成し、新しい最先端手法で深度を完了させる。 0.51
DySPN currently ranks first on the KITTI depth completion benchmark [98]. DySPNは現在、KITTIディープコンプリートベンチマーク[98]で第1位である。 0.58
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 5 LEARNING OBJECTIVES FOR TRAINING MODELS Since depth completion and monocular depth estimation have the same target outputs, i.e., predicting dense depth maps, they share the same learning objectives, such as depth loss, surface normal loss, and photometric loss. 14, NO. 8, MAY 2022 5 学習目的 学習モデルのための学習対象 深度完成度と単眼深度推定は同一の目標出力、すなわち深度マップを予測するため、深度損失、表面正規損失、測光損失など同じ学習目標を共有する。 0.74
In this section, we describe the learning objectives used in previous studies. 本稿では,先行研究における学習目標について述べる。 0.74
A brief overview is given in Table 2 in which we will review the commonly used objectives in detail in the following sections. 簡単な概要は表2で示されており、ここでは以下の節でよく使われる目的について詳細に検討する。 0.59
9 5.1 Depth Consistency Given a sparse input Y (cid:48), the predicted dense map ˆY where ˆY = N (Y (cid:48); (cid:87)), and the semi-dense ground truth depth map Y , many works [50], [65], [88], [97], [119] used the l1 loss (mean absolute error) between the predicted depth map and the ground truth depth map on valid pixels by 9 5.1 Depth Consistency sparse input Y (cid:48) を与えられたとき、予測された高密度写像 yY (Y (cid:48); (cid:87)) と半密度基底真理深度写像 Y , many works [50], [65], [88], [97], [119] は、予測深度写像と有効画素上の基底真理深度写像の間の l1 の損失 (平均絶対誤差) を用いた。 0.61
(cid:107) ˆYi − Yi(cid:107)1 (cid:107)-yi(cid:107 )1 0.38
(5) n(cid:88) (5) n(第88回) 0.51
i=1 l1 = i=1 である。 l1。 0.52
1 n n(cid:88) 1n n(第88回) 0.49
1 n where (cid:107)·(cid:107)1 denotes the (cid:96)1 norm, ˆYi ∈ ˆ(cid:89) and Yi ∈ (cid:89) denote the predicted depth and the ground truth depth at ith pixel, and n is the total number of valid depth points from (cid:89). 1n ここで (cid:107)· (cid:107)1 は (cid:96)1 ノルムを表し、Yi ∈ (cid:89) と Yi ∈ (cid:89) は、i ピクセルにおける予測深度と基底真理深さを表し、n は (cid:89) からの有効深度点の総数である。 0.58
Also, most existing methods [19], [71], [126] used the l2 loss, also known as root mean squared error (RMSE) by また、既存の方法のほとんど [19], [71], [126] は、ルート平均二乗誤差 (RMSE) としても知られるl2損失を用いた。 0.80
(cid:107) ˆYi − Yi(cid:107)2, (cid:107)-yi(cid:107 )2。 0.75
l2 = (6) where (cid:107)·(cid:107)2 denotes the (cid:96)2 norm. l2 = (6) ここで(cid:107)·(cid:107)2は(cid:96)2ノルムを表す。 0.57
Note that in many methods [58], [70], [71], [71], [79], the l2 loss is referred to as MSE. 多くの方法 [58], [70], [71], [71], [79] において、l2損失は MSE と呼ばれる。 0.68
Therefore, in this article, we do not technically distinguish between the RMSE and MSE when they are used as loss functions. そこで本論文では,損失関数として使用する場合は,RMSEとMSEを技術的に区別しない。 0.86
i=1 The l1 loss treats each valid pixel equally, while the l2 loss is more sensitive to outliers and usually penalizes distant depth points more heavily. i=1 である。 l1の損失は各有効なピクセルを等しく扱い、l2の損失は外れ値に対してより敏感であり、通常は遠方の深さ点をより過度に罰する。 0.47
To take advantage of both losses, some methods attempt to combine them from different aspects. 両方の損失を生かして、異なる側面からそれらを組み合わせようとする方法もある。 0.68
For example, several approaches [34], [61] linearly combined them as a loss function. 例えば、いくつかのアプローチ [34], [61] が線形にそれらを損失関数として結合する。 0.76
Van Gansbeke et al [99] proposed focal-MSE where the mean absolute error was taken as a focal term for weighing the l2 loss of depth. Van Gansbekeら[99]は、平均絶対誤差をl2の深さの損失を測る焦点用語とした焦点MSEを提案した。 0.80
Also, some works [80], [101] used the Huber loss [46] combining l1 and l2 to reduce the influence of large errors. また、[80] と [101] は、大きなエラーの影響を低減するために、l1 と l2 を組み合わせた Huber loss [46] を使用していた。 0.73
It is defined by (cid:40) 定義は (系統:40) 0.54
(cid:80)n (cid:80)n (cid:80)n (cid:80)n 0.41
1 i=1 n i=1 δ 1 i=1 n i=1 δ 0.35
(cid:16)| ˆYi − Yi| − 1 (cid:16)| >Yi − Yi| − 1 0.41
2 ( ˆYi − Yi)2, 2 δ 2 (yi − yi)2, 2 δ) である。 0.75
1 (cid:17) 1 (cid:17) 0.41
1 n (7) lhuber = where | · | denotes the absolute value operator and δ is usually set to 1. 1n (7) lhuber = where | · | は絶対値演算子を表し、δ は通常 1 に設定される。 0.64
Besides, a few studies [66], [101] employ the Berhu loss [76] which is a reversion of Huber loss defined by また,いくつかの研究[66],[101]は,フーバー損失の反転であるベルフ損失[76]を用いている。 0.67
, | ˆYi − Yi| ≤ δ | ˆYi − Yi| > δ , δ|yi − yi| > δ|yi − yi| > δ である。 0.52
(cid:40) 1 (cid:80)n (cid:80)n i=1 | ˆYi − Yi|, ( ˆYi−Yi)2+δ2 (cid:40) 1 (cid:80)n (cid:80)n i=1 | >Yi − Yi|, (>Yi−Yi)2+δ2 0.35
n i=1 n i=1 である。 0.37
2δ 1 n lberhu = 2δ 1n lberhu = 0.40
| ˆYi − Yi| ≤ δ | ˆYi − Yi| > δ δ|yi − yi| > δ|yi − yi| > δ である。 0.62
, (8) Fig. 9 visualizes the comparisons of MAE, MSE, Huber, and the Berhu loss functions for δ = 1. , (8) 第9図 δ = 1 に対する MAE, MSE, Huber, および Berhu 損失関数の比較を可視化する。 0.56
As shown, the Huber norm acts as l2 when the error is less than δ and acts as l1 otherwise. このように、フーバーノルムは誤差が δ 未満であれば l2 として作用し、それ以外の場合は l1 として作用する。
訳抜け防止モード: このように、フーバーノルムは誤差が δ 未満の場合 l2 として振る舞う l1として機能する。
0.70
On the other hand, the Berhu norm acts inversely 一方 ベルフの規範は 逆に振る舞う 0.45
Fig. 9. The comparison of MAE, MSE, Huber and Berhu norm. 第9話。 MAE, MSE, Huber, Berhu ノルムの比較 0.49
to the Huber norm, i.e., acts as l1 when the error is less than δ and acts as l2 otherwise. フーバーノルム、すなわち、誤差がδ未満のとき l1 として作用し、そうでなければ l2 として作用する。
訳抜け防止モード: フーバーノルム、すなわち、誤差が δ 未満の場合に l1 として作用する l2として機能する。
0.73
Another attempt for handling the above issue of regression is to formulate depth prediction as a classification problem as an early work [5] on monocular depth estimation. 以上の回帰問題を扱う別の試みは、単分子深度推定の初期研究として分類問題として深度予測を定式化することである。 0.71
In this case, the depth range is discretized into a set of bins and a cross entropy loss is used. この場合、深さ範囲をビンの集合に離散化し、クロスエントロピー損失を用いる。 0.64
For depth completion, [47], [62] exploit this setting. 深さ補完のために、[47],[62]はこの設定を利用する。 0.74
Besides the above discussed loss functions, to tackle the outliers and inherent noises of the sparse input, uncertainty aware learning objectives are also exploited. 上記の損失関数に加えて、スパース入力の外れ値や固有雑音に対処するために、不確実性を考慮した学習目的も活用する。 0.64
Uncertainty estimation [53] has been originally proposed to improve the robustness and accuracy of deep models. 不確実性推定 [53] はもともと深層モデルのロバスト性と精度を改善するために提案されている。 0.71
Inspired by [53], a couple of methods [20], [131] introduce the uncertainty driven depth loss function where the completion is posed as maximizing the posterior probability. 53]にインスパイアされた2つの手法 [20], [131] は、完了が後続確率の最大化として提示される不確実性駆動の深さ損失関数を導入する。 0.77
Assuming the likelihood term p(Yi|σi, Yi) is modeled by a Gaussian distribution, following [20], [131], then 可能性項 p(Yi|σi, Yi) がガウス分布によってモデル化され、[20], [131] に従うと仮定する。 0.78
p(Yi|σi, Yi) ≈ p(yi|σi, yi) である。 0.43
1√ 2πσi exp 2πσi である。 exp 0.37
(cid:32) − ( ˆYi − Yi)2 (cid:32) − ( sYi − Yi)2 0.49
(cid:33) 2σ2 i (cid:33) 2σ2i 0.52
(9) ˆYi and σi can be obtained via maximum likelihood estimation by (9) yi と σi は最大確率推定によって得られる。 0.60
ˆYi, σi = argmax ジイ, σi = argmax 0.44
log p( ˆYi|σi, Yi) log (複数形 logs) 0.47
ˆYi,σi = argmax 大Yi,σi =argmax 0.52
ˆYi,σi = argmax 大Yi,σi =argmax 0.52
− 1 2 − 1 2 − 1 2 − 1 2 0.42
log(2π) − log(σi) − ( ˆYi − Yi)2 log(si) − ( ˆYi − Yi)2 log(2π) − log(σi) − ( ~Yi − Yi)2 log(si) − (~Yi − Yi)2 0.48
log(2π) − 1 2 log(2π) − 1 2 0.48
2σ2 i 2si (10) 2σ2i 2si (10) 0.49
ˆYi,si where si (cid:44) σ2 i denotes the uncertainty of prediction at the ith pixel. si (cid:44) σ2 i は ith ピクセルでの予測の不確実性を表す。 0.67
Given equation (10), the uncertainty driven depth loss for depth completion is defined by 与えられた方程式(10)は、深さ完了に対する不確実性駆動深さ損失を定義づける。 0.62
(cid:32) n(cid:88) (cid:32) n(第88回) 0.50
i=1 lud = i=1 である。 lud = 0.37
1 n ( ˆYi − Yi)2 1n (~Yi-Yi)2 0.39
si (cid:33) シー (cid:33) 0.38
+ log(si) log (複数形 logs) 0.68
(11) In practice, an identical transformation of equation (11) is usually applied to avoid division by zero during the training (11) 実際には、等式(11)の同一の変換は、通常、訓練中にゼロの除算を避けるために適用される 0.55
3210123Error01234567 89LossMAEMSEHuberBer hu 3210123Error01234567 89LossMAEMSEHuberBer hu 0.24
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
10 A list of loss functions used for depth completion in previous works. 10 損失関数のリストは、以前の作品の深さ補完に使われる。 0.58
TABLE 2 Loss function Type 表2 損失関数 種類 0.69
Notation Explanation Depth Consistency 表記 解説 深さ一貫性 0.58
Supervised Structural loss Supervised 監督 構造損失 監督 0.58
Smoothness regularization Unsupervised 滑らかさの正規化 監督なし 0.45
Geometric constraint Unsupervised 幾何学的制約 監督なし 0.52
l1 l2 lhuber lberhu l1 l2 lhuber lberhu (複数形 lhuber lberhus) 0.29
lce lud lgrad lce lud lgrad (複数形 lce lud lgrads) 0.31
lnormal lssim ltv [12] 普通 ltv (複数形 ltvs) 0.58
lsmooth lphoto Lsmooth lphoto 0.40
lstereo Adversarial loss ロステリオ 対立損失 0.47
Unsupervised ladv Others 監督なし ladv その他 0.50
Supervised ltp [107] lcpn [119] lcosine [65] lconf [113] limg [68] p lur [131] 監督 ltp [107] lcpn [119] lcosine [65] lconf [113] limg [68] p lur [131] 0.45
l1 loss of depth on valid pixels, Eq (5) l2 loss of depth on valid pixels, Eq (6). 有効画素の深さl1損失,有効画素の深さEq (5) l2損失,有効画素の深さEq(6)。 0.80
Huber loss of depth on valid pixels, Eq (7). 有効画素の深さのフーバー損失、eq (7)。 0.64
Berhu loss of depth on valid pixels, Eq (8). 有効画素, eq (8) におけるberhuの深さ損失 0.85
Cross entropy of depth on valid pixels by formulating depth regression as a classification task. 深度回帰を分類課題として定式化した有効画素の深さのクロスエントロピー 0.74
Uncertainty driven loss of depth on valid pixels, Eq (12). 不確実性によって有効なピクセルの深さが失われる、eq (12)。 0.58
Gradient loss between the predicted depth map and the pseudo ground truth depth map. 予測深度マップと疑似基底真理深度マップとの勾配損失。 0.64
Negative cosine difference of surface normal. 表面正常度の負のコサイン差 0.64
SSIM loss between the predicted depth map and the pseudo ground truth depth map. 予測深度マップと疑似基底真理深さマップとのssim損失。 0.67
Total variation of the predicted depth map. 予測深度マップの総変動 0.56
l1 norm on second-order derivative of predicted depth map, Eq (13) or edge-aware smoothness loss, Eq (14). 予測深度写像の2階微分上のl1ノルム、Eq (13) またはエッジ認識滑らかさ損失、Eq (14)。
訳抜け防止モード: 予測深度写像の2階微分におけるl1ノルム Eq (13 ) または edge - 滑らかさ損失, Eq (14 )。
0.82
Photometric loss derived from temporally adjacent images or stereo images, Eq (16). 時間的に隣接した画像やステレオ画像から得られた光度損失Eq (16。 0.79
l2 loss of depth between the predicted depth map and the pseudo ground truth depth map generated from stereo images. L2 ステレオ画像から生成された予測深度マップと擬似地上深度マップとの間の深さの損失。 0.80
Adversarial loss between the predicted depth map and the pseudo ground truth depth map, Eq. 予測深度マップと疑似基底真理深さマップ、eqとの逆損失。 0.66
(17). l1 loss between the prior (initial) depth map and the final estimated depth map. (17). l1 前の(初期)深度マップと最終的な推定深度マップの間の損失。 0.63
l2 loss between an estimated depth map and its reconstruction from the conditional prior network. l2 推定深度マップと条件付き事前ネットワークからの再構成の間の損失。 0.85
Cosine similarity between the predicted depth map and the pseudo ground truth depth map. 予測深度マップと疑似基底真理深さマップとのコサイン類似性 0.71
Loss for learning the confidence map. 信頼マップを学ぶための損失。 0.74
lp Loss for image reconstruction. lp 画像再構成の損失。 0.79
Uncertainty aware loss for learning the residual depth map. 残留深度マップの学習における不確かさ認識損失 0.86
and the following uncertainty aware learning objective is used instead: 代わりに以下の不確実な学習目的が使われます 0.72
(exp−si( ˆYi−Yi)2 (exp−si(ジイ−yi)2) 0.28
+si). (12) +si)。 (12) 0.64
n(cid:88) i=1 n(第88回) i=1 である。 0.45
lud = 1 n In both works [20], [131], the uncertainty map s is estimated with an additional branch within the depth completion framework. lud = 1n どちらのワーク[20],[131]においても、深さ補完フレームワーク内に追加のブランチで不確かさマップsを推定する。 0.52
5.2 Structural Loss Functions A common problem of previous works is that the predicted depth maps suffer from blur effects and distorted boundaries. 5.2 構造損失関数 従来の研究の一般的な問題は、予測された深度写像がぼやけた効果と歪んだ境界に苦しむことである。
訳抜け防止モード: 5.2 構造損失関数 以前の研究の一般的な問題は 予測深度マップは ぼやけた効果と 歪んだ境界に苦しむ
0.88
To overcome this problem, researchers proposed to apply regularization to scene structures by introducing loss functions of depth gradient, surface normal, and perceptual quality. この問題を解決するために, 深度勾配, 表面正常, 知覚品質の損失関数を導入して, シーン構造に正規化を適用することを提案した。 0.66
Specifically, the gradient loss lgrad, is implemented by minimizing the mean absolute error [32], [62]. 具体的には、平均絶対誤差[32],[62]を最小化することにより、勾配損失lgradを実装する。 0.77
For surface normal difference denoted by lnormal, the negative cosine difference is commonly utilized [79], [113]. lnormal で表される表面正規差に対して、負のコサイン差を [79], [113] として一般的に利用する。 0.71
The effect of gradient and surface normal loss has been well studied in [40]. 勾配と表面の正常損失の影響は[40]でよく研究されている。 0.86
As shown in Fig 10, the gradient loss contributes to penalizing errors emerging at the boundary of an object, while the surface normal loss can alleviate minor structural errors. 図10に示すように、勾配損失は物体の境界に現れる誤差のペナルティ化に寄与し、表面の正常な損失は小さな構造的エラーを軽減することができる。 0.78
Lastly, the structural similarity index measure (SSIM) loss [105], denoted by lssim, is penalized to ensure the perceptual quality [32], [123]. 最後に、lssimで示される構造類似度指標(SSIM)損失[105]を、知覚品質[32],[123]を確保するために罰する。
訳抜け防止モード: 最後に、構造類似度指標(ssim)損失[105 ]。 lssimによって示され、知覚的品質[32]を保証するためにペナルティが課される。 [ 123 ] .
0.78
Since dense ground truth depth maps are required, previous methods using the structural loss need to generate pseudo dense ground truth maps if they are not available from training data. 密接な基底真理深度マップが必要となるため、構造的損失を用いた従来の手法では、訓練データから得られない場合は疑似密接な基底真理マップを生成する必要がある。
訳抜け防止モード: 密接な地盤真理深度マップが必要となるため, 構造的損失ニーズを用いた従来手法 訓練データから得られない場合、擬似密接な地上真理マップを生成する。
0.83
5.3 Smoothness Regularization Smoothness regularization is utilized to suppress noises and ensure local smoothness for depth prediction. 5.3 Smoothness Regularization Smoothness regularization を用いて雑音の抑制と深度予測の局所的滑らか性を確保する。 0.80
There are typically two frequently used learning objectives for imposing depth smoothness. 通常、深さの滑らかさを示すための2つの学習目的がある。 0.57
The first objective used in [70], 70]で使用される最初の目的 0.74
Fig. 10. Robustness of depth, gradient, and surface normal loss to depth differences. 第10話。 深さ,勾配,表面正規損失のロバストさと深さ差 0.56
For simplicity, the solid and dotted lines denote two onedimensional depth maps, respectively. 単純さのために、固体線と点線はそれぞれ2次元の深さ写像を表す。 0.68
It is observed that depth loss is insensitive to the shift and the occlusion of edges, while gradient and surface normal loss can handle these structural differences. 勾配と表面の正規損失はこれらの構造的差異に対処できるが, 深さ損失はエッジのシフトや閉塞に無感であることがわかった。 0.82
From [40]. [88], [115], [124] is to minimize the (cid:96)1 norm on second-order derivative of predicted depth map by 40]から。 88], [115], [124] は予測深度マップの2階微分における(cid:96)1ノルムを最小化する 0.67
lsmooth = 1 n lsmooth = 1n 0.40
(cid:16)|∂2 (出典:16)|infty2 0.50
x n(cid:88) i=1 x n(第88回) i=1 である。 0.44
ˆYi|(cid:17) シュユ(キッド:17) 0.55
ˆYi| + |∂2 大Yi| + |infty2 0.48
y (13) where ∂x and ∂y denotes the gradients along the horizontal and vertical direction of the dense depth map. うん (13) ここで ∂x と ∂y は密度深度写像の水平方向と垂直方向に沿った勾配を表す。 0.56
The second is the edge-aware smoothness loss used in [13], [84], [90], [107], [109], [110] that allows depth discontinuity at boundaries by 2つ目は[13], [84], [90], [107], [109], [110] で使われるエッジアウェアな滑らかさ損失であり、境界での深さの不連続を許容する。 0.88
(cid:16)(cid:12)(cid :12)(cid:12)∂x ˆYi (cid:16)(cid:12)(cid :12)(cid:12)(cid:12) ∂x >Yi 0.28
(cid:12)(cid:12)(cid :12) e (cid:12)(cid:12)(cid :12)e 0.35
n(cid:88) i=1 n(第88回) i=1 である。 0.45
(cid:12)(cid:12)(cid :12)∂y ˆYi (cid:12)(cid:12)(cid :12)と評価される。 0.42
(cid:12)(cid:12)(cid :12) e (cid:12)(cid:12)(cid :12)e 0.35
−|∂yIi|(cid:17) -|inftyyIi|(cid:17) 0.27
(14) −|∂xIi| + (14) -|inftyxIi|+ 0.35
lsmooth = 1 n lsmooth = 1n 0.40
Besides, the total variation is also used in [12] for noise さらに、[12]では、ノイズの総変動も使用される。 0.80
suppression. 5.4 Multi-view Geometric Constraints One of the most challenging issues for depth completion is the lack of dense and high quality ground truth. 抑圧だ 5.4 マルチビュー幾何制約 深度完備化の最も難しい問題のひとつは、密集した高品質の地上真実の欠如である。 0.63
To cope with this problem, researchers also attempt to seek solutions この問題に対処するために 研究者は解決策を探し 0.86
ldepthlgradlnormal✗✓✗✗✓✓✓✗✓ ldepthlgradlnormal 0.34
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
from the perspective of utilizing loss functions. 損失関数の活用という観点から見れば 0.72
Among them, temporal photometric loss obtained from consecutive images provides an unsupervised supervision signal 1 to guide depth completion. それらのうち、連続画像から得られる時間的測光損失は、深度完了を導くための教師なし監視信号1を提供する。 0.64
Ma et al [70] are the first that introduce photometric loss for depth completion. ma et al [70] は、深度完了のために測光損失を導入する最初の例である。 0.72
Based on the epipolar geometry, the predicted depth map of an image is warped to the nearby frame. エピポーラ形状に基づいて、画像の予測深度マップを近傍フレームに反動させる。 0.63
Then, the differences at corresponding pixels are penalized. そして、対応する画素の差をペナルティ化する。 0.72
Formally, given two consecutive images I t and I t+1, the warping of a pixel i from I t to I t+1 is computed by 正式には、2つの連続した画像it,it+1が与えられると、画素iがitからit+1に歪むことが計算される。
訳抜け防止モード: 形式的には、2つの連続した画像 t と t+1。 I t から I t+1 までのピクセル i の歪みは計算される
0.75
ˆI t→t+1 = KT t→t+1Y t ~I t→t+1 = KT t→t+1Y t 0.35
i (15) where K denotes the camera intrinsic matrix and T t→t+1 denotes the relative pose from time t to t + 1. 私は (15) Kはカメラ固有の行列を表し、T t→t+1は時間tからt+1までの相対的なポーズを示す。 0.60
Y t is the i predicted depth of the ith pixel of the image I t. Y t は画像 I t の i 番目のピクセルの深さである。 0.74
Then, the photometric loss between two images is defined by そして、2つの画像間の測光損失を定義づける。 0.78
i K i −1I t i k です 私は −1I t 0.50
m(cid:88) i=1 m(cid:88) i=1 である。 0.36
lphoto = 1 m lphoto = 1m 0.41
(cid:107) ˆI t→t+1 (cid:107)<i t→t+1> 0.24
i − I t+1 私は −i t+1 である。 0.50
i (cid:107)1 私は (cid:107)1 0.48
(16) where m denotes the number of missing pixels. (16) mは欠落したピクセルの数を表します 0.57
Researchers attempt to improve the above photometric loss from different perspectives in subsequent studies. 研究者たちは、次の研究で上記の測光損失を異なる視点から改善しようとしている。 0.60
The photometric loss is susceptible to moving objects. 測光損失は動く物体に影響を受けやすい。 0.76
To alleviate this problem, Chen et al [9] integrated a MaskNet into the self-supervised framework. この問題を軽減するため、Chen氏らはMaskNetを自己組織化フレームワークに統合した。
訳抜け防止モード: この問題を緩和する。 Chen氏らは、MaskNetを自己監督型のフレームワークに統合した。
0.71
The MaskNet predicts the masks of moving objects such that the influence of moving objects can be reduced. マスネットは、動く物体の影響を低減できるように、動く物体のマスクを予測する。 0.75
Also, to ensure the perceptual consistency, Wong et al [109], [110] integrated the SSIM difference between warped and original images into the photometric loss. また、Wong et al [109], [110] の知覚整合性を確保するため、歪んだ画像とオリジナル画像のSSIM差を測光損失に統合した。 0.67
Different approaches to calculating the photometric loss have also been explored. 測光損失を計算するための様々なアプローチも検討されている。 0.67
In [49], optical flow is used to estimate the relative pose between two consecutive frames, and a pose estimation net is used for this purpose in [124]. 49]では、連続する2つのフレーム間の相対的なポーズを光学フローを用いて推定し、[124]では、この目的のためにポーズ推定ネットを用いる。 0.79
In [90], relative poses are calculated in feature spaces at multiple scales. 90]では、複数のスケールで特徴空間で相対的なポーズが計算される。 0.69
Specifically, consecutive frames are sent to the FeatNet for multi-scale feature extraction. 具体的には、連続したフレームをFeatNetに送信し、マルチスケールの特徴抽出を行う。 0.57
The relative pose is calculated with the Gauss-Newton algorithm [4] at each scale. 相対的なポーズは各スケールでガウス・ニュートンアルゴリズム[4]で計算される。 0.74
As pointed out in [108], the conventional use of the photometric loss treats each pixel equally. 108]で指摘されているように、従来の測光損失の使用は各画素を等しく扱う。 0.82
Unfortunately, this incurs significant meaningless errors at occluded regions. 残念ながら、これは排除された領域で重大な無意味なエラーを引き起こす。 0.45
To address this issue, Wong et al [108] proposed an adaptive weighting function that acts as a flipped sigmoid function. この問題に対処するため、Wongら[108]は、フリップしたシグモイド関数として機能する適応重み付け関数を提案した。 0.69
The weights for the photometric loss are approximately equal to 1 at each pixel at the beginning, and will get smaller if the residual at certain pixel increases during the training procedure. 光度損失の重みは、開始時に各画素でほぼ1であり、訓練手順中にある画素の残余が増加すると小さくなる。 0.65
A few previous works studied depth completion under the stereo setting except for the temporal photometric loss. 過去のいくつかの研究は、時間的測光損失を除いてステレオ設定下での深さの完成を研究した。 0.54
When a stereo pair is available, as seen in [119], the multiview photometric consistency can be derived in a different fashion. ステレオペアが利用可能であれば、[119]に見られるように、マルチビューフォトメトリック一貫性は異なる方法で導出することができる。 0.79
Besides, in order to handle the lack of supervision, stereo images are used to generate ground truth depths for missing pixels in [88]. さらに、監視の欠如に対処するために、ステレオ画像は [88] の欠落画素の基底真理深度を生成するために使用される。 0.81
However, despite these advantages, the stereo setting inevitably lowers the generalizability of these methods [88], [119] in practice. しかし、これらの利点にもかかわらず、ステレオ設定は必然的にこれらの方法 [88], [119] の一般化性を低下させる。 0.62
1. This signal is also called self-supervised signal in some studies [49], 1 この信号は、いくつかの研究で自己監督信号とも呼ばれる[49]。 0.79
[70], [90] [70], [90] 0.37
11 5.5 Adversarial Loss Several approaches also adopt adversarial loss to promote depth completion [1], [54], [97], [123]. 11 5.5 対向損失 幾つかのアプローチは、奥行き完了を促進するために逆損失 [1], [54], [97], [123] も採用している。 0.55
In these works, a generator is used to infer a depth map from the RGB and sparse depth map, and a discriminator is used to distinguish between the reconstructed depth map and ground truth by (cid:48))))] これらの作業では、RGBとスパース深度マップから深度マップを推測するためにジェネレータを使用し、再構成した深度マップと地上真実を区別するために識別器を用いる(cid:48))。 0.75
E[log D(Y )] + E[log(1 − D(G(I, Y E[log D(Y )] + E[log(1 − D(G(I, Y)) 0.44
max ladv = min G マックス ladv = min G 0.56
D (17) where Y is dense ground truth which is usually obtained by other completion algorithms, G and D are the generator and discriminator, respectively. D 17) y が他の完全アルゴリズムによって得られる密接な基底真理であるとき、g と d はそれぞれ生成元と判別器である。 0.61
6 DATASETS AND EVALUATION METRICS In this section, we introduce the benchmark datasets commonly used in previous works in detail. 6 DataSETS and Evaluation MetriCS この節では、従来の研究でよく使われているベンチマークデータセットを詳細に紹介する。 0.62
We also comprehensively survey the related datasets for reference. また、関連するデータセットを参考に包括的に調査する。 0.57
6.1 Real-world Datasets KITTI depth completion dataset [98]: The KITTI dataset is a widely used large-scale outdoor dataset that contains over 93,000 semi-dense depth maps with the corresponding raw sparse LiDAR scans and RGB images. 6.1 Real-world Datasets KITTI depth completion dataset [98]: KITTIデータセットは、広範に使われている大規模な屋外データセットで、93,000以上の半深度マップと対応する生のLiDARスキャンとRGBイメージを含んでいる。 0.75
The training, validation, and test set have 86,000, 7,000 and 1,000 samples, respectively. トレーニング、検証、テストセットはそれぞれ86,000、7000、1,000のサンプルがある。 0.72
The full resolution of images and depth maps can reach 1216 × 352, which is larger than most existing RGBD datasets. 画像と深度マップの完全な解像度は、既存のRGBDデータセットよりも大きい1216 × 352に達する。 0.75
The raw LiDAR scans are captured by a Velodyne HDL-64E. 生のLiDARスキャンは、Velodyne HDL-64Eによってキャプチャされる。 0.55
In order to have a semi-dense ground truth depth map with rare outliers, Uhrig et al [98] purified the raw data with the semi-global matching (SGM) and densified the sparse depth map by accumulating 11 laser scans. 希少な外れ値を持つ半密度の地中真理深度マップを得るため,Uhrigらは半球マッチング(SGM)を用いて生データを精製し,11個のレーザースキャンを蓄積してスパース深度マップを密度化した。 0.77
KITTI is the most popular dataset used for performance evaluation of depth completion methods and provides a public benchmark that ranks existing methods. KITTIはディープコンプリートメソッドのパフォーマンス評価に最も人気のあるデータセットであり、既存のメソッドをランク付けする公開ベンチマークを提供する。 0.70
We compare essential characteristics of these methods, including network structures, loss functions, and RMSE on the benchmark KITTI dataset in the following sections. ネットワーク構造や損失関数,RMSEなど,これらの手法の基本特性を,以下のセクションでベンチマークKITTIデータセット上で比較する。 0.87
It should be noted that the ground truths can be used differently in implementing previous methods. 基礎的な真理は、以前のメソッドの実装で異なる方法で使用できる点に注意が必要だ。 0.60
The density of the original sparse depth maps is only about 5% (as observed in Fig 11 元のスパース深度マップの密度は約5%である(図11に示すように)。 0.82
(b)), and the semi-dense ground truths provided by the KITTI benchmark can reach about 30% (as visualized in Fig 11 (b)、KITTIベンチマークによって提供される半密度基底真理は約30%に達する(図11に示すように)。 0.72
(c)). Most previous works take the denser ground truths to implement their methods, whereas several unsupervised approaches [107], [108], [109], [110], [119] assume that only original sparse depth maps are available. (c)。 以前のほとんどの著作では、その方法を実装するのにより密接な基礎的真理が用いられるが、いくつかの教師なしのアプローチ [107], [108], [109], [110], [119] は元のスパース深度マップのみが利用できると仮定している。 0.49
In this case, the depth consistency is only applied to those 5% valid pixels. この場合、深さの整合性は5%の有効画素にのみ適用される。 0.83
(a) (b) (c) (a) (b) (c) 0.43
Fig. 11. Sample images from the KITTI depth completion dataset [98]. 第11話。 KITTI深度補完データセットからのサンプル画像 [98]。 0.56
(a) RGB images. (b) Raw sparse depth maps. (a)RGB画像。 (b)生の疎水深マップ。 0.73
(c) Ground truth depth maps. (c) 真理深度マップ。 0.63
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
NYU-v2 [89]: The NYU-v2 dataset consists of 464 indoor scenes with 408,000 RGBD images captured by Microsoft Kinect with an original resolution of 640×480. NYU-v2 [89]:NYU-v2データセットは、464の屋内シーンと408,000のRGBDイメージで構成され、オリジナルの解像度は640×480である。 0.65
Although the original RGBD data is only applicable to depth enhancement methods, previous studies of depth completion implement their methods by randomly selecting 200 (Fig. 元のRGBDデータは深度向上法にのみ適用できるが、従来の深度補完法の研究ではランダムに200 (Fig) を選択した。 0.74
12 (b)) or 500 depth points (Fig. 12 (b)または500の深さ点(図)。 0.61
12 (c)) as sparse inputs. 12 (c)スパース入力として。 0.59
The total valid pixels are less than 1% in both cases. どちらのケースでも有効画素数は1%未満である。 0.77
Most methods evaluated on the NYU-v2 dataset are RGB guided. NYU-v2データセットで評価されたほとんどのメソッドはRGBガイドされている。 0.52
In the following sections, we show the essential characteristics of previous methods, including network structure, loss function, RMSE, etc., on the dataset. 以下の節では、データセット上のネットワーク構造、損失関数、RMSEなど、過去の手法の本質的な特徴を示す。 0.67
(a) (b) (c) (a) (b) (c) 0.43
(d) Fig. 12. A sample image from the NYU-v2 dataset [89]. (d) 第12話。 NYU-v2データセットのサンプル画像 [89]。 0.53
(a) An RGB image. (b) A spare depth map (200 points). (a)RGB画像。 (b)予備深度マップ(200点) 0.64
(c) A sparse depth map (500 points). (c)スパース深度マップ(500点)。 0.66
(d) The corresponding ground truth depth map. (d)対応する基底真理深度マップ。 0.73
DenseLivox [122]: One challenge of acquiring ground truth depth in outdoor scenarios is the price of a highend LiDAR. DenseLivox [122]: 屋外シナリオにおける真理深度を取得する上での課題のひとつは、ハイエンドのLiDARの価格です。 0.72
For instance, the Velodyne HDL-64E mentioned above in KITTI costs nearly 100,000$. 例えば、KITTIの上のVelodyne HDL-64Eは10万ドル近くだ。 0.63
Therefore, Yu et al [122] argue that the cheaper and more reliable solid-state LiDAR seems to be a more reasonable choice in practice. したがって、Yu氏ら[122]は、安価で信頼性の高い固体LiDARの方が実際より合理的な選択であると主張している。 0.68
Consequently, they use the Livox LiDAR to obtain the dense ground truth (with the density of 88.3%) of both indoor and outdoor scenes. その結果、彼らはLivox LiDARを使って、屋内と屋外の両方のシーンの密度88.3%の地上の真実を得ることができた。 0.70
DenseLivox also provides some extra data like bound-occlusion and normal. denselivoxはバウンドクローションやノーマルといった追加データも提供する。 0.69
This dataset was employed to evaluate the method in [122]. このデータセットは[122]のメソッドを評価するために使われました。 0.65
VOID [109]: The VOID dataset contains 56 sequences collected with the Intel RealSense D435i camera from both indoor and outdoor scenes, in which 48 sequences (approximately 47,000 frames) are designed for training, and the rest of 8 sequences are used for testing. VOID [109]: VOIDデータセットには、屋内および屋外の両方からIntel RealSense D435iカメラで収集された56のシーケンスが含まれており、トレーニング用に48のシーケンス(約47,000フレーム)が設計され、残りの8つのシーケンスがテストに使用される。 0.72
The resolution of each frame is 640 × 480. 各フレームの解像度は640×480である。 0.85
Each sequence has three different density levels with 1500, 500, and 150 points. 各シーケンスは、1500、500、150の3つの異なる密度レベルを持つ。 0.76
This dataset was employed to evaluate the methods in [107], [108], [109], [110]. このデータセットは、[107], [108], [109], [110]のメソッドを評価するために使用された。 0.84
ScanNet [14]: ScanNet contains 2.5 Million RGBD images from 1513 indoor scenes. ScanNet [14]: ScanNetは1513の屋内シーンから250万枚のRGBD画像を含んでいる。 0.70
Unlike other indoor datasets, the RGBD dataset is collected by an iPad Air2 equipped with a structure sensor. 他の屋内データセットとは異なり、rgbdデータセットは構造センサーを備えたipad air2によって収集される。 0.70
This leads to input with different resolutions between depth maps (640 × 480) and RGB images (1296 × 968). これにより、深度マップ(640×480)とRGBイメージ(1296×968)の解像度が異なる入力となる。 0.87
This dataset was employed to evaluate the methods in [87], [111]. このデータセットは [87], [111] のメソッドを評価するために使われた。 0.78
6.2 Synthetic Datasets It is incredibly challenging to acquire pixel-level ground truth depth maps in real-world applications because depth sensors are prone to failures for scenarios like capturing the sky and transparent or reflective surfaces. 6.2 合成データセット 空と透明または反射面を捉えるようなシナリオでは、深度センサーが故障しやすいため、現実世界のアプリケーションでピクセルレベルの地中深度マップを取得することは信じられないほど難しい。
訳抜け防止モード: 6.2 合成データセット 信じられないほど難しい 実世界におけるピクセル・レベル地上真理深度マップの取得 深度センサーは 空を捉えたり 透明な表面や反射面を捉えたり
0.81
For the implementation of depth completion algorithms, some researchers turn to virtual datasets, from which dense and high-quality ground truth can be generated faithfully and efficiently. 深度補完アルゴリズムの実装のために、一部の研究者は、高密度で高品質な基底真理を忠実かつ効率的に生成できる仮想データセットに目を向ける。 0.69
In this section, we review various synthetic datasets. 本稿では,様々な合成データセットについて概説する。 0.59
12 SYNTHIA [83]: The SYNTHIA dataset is a virtual dataset of urban driving scenes. 12 SynTHIA [83]: SynTHIAデータセットは都市運転シーンの仮想データセットである。 0.59
Ros et al [83] employed the unity game engine to create a virtual city that includes street blocks, highways, suburban areas, and other common objects in the urban environment. ros et al [83]はunity game engineを使って、街路ブロック、高速道路、郊外、その他の都市環境に共通する物体を含む仮想都市を作った。 0.74
To render the output genuine, the virtual city has four different appearances corresponding to four seasons in reality. 出力を出力するために、仮想都市は4つの季節に対応する4つの異なる外観を持つ。 0.73
In addition, different illumination conditions and other details are also applied to improve the quality of the virtual RGB images. さらに、仮想RGB画像の品質向上のために、異なる照明条件や他の詳細も適用した。 0.72
The total dataset can be divided into two complementary sets, SYNTHIA-Rand and SYNTHIA-Seqs. 全データセットはSynTHIA-RandとSynTHIA-Seqsの2つの補完セットに分けられる。 0.66
The dataset of the former (13,400 frames with the resolution of 960 × 720) is obtained randomly within the city, while the dataset of the latter (200,000 frames with the same resolution) is captured from a virtual vehicle across different seasons. 前者のデータセット(解像度960×720の13,400フレーム)は市内でランダムに取得され、後者のデータセット(同じ解像度の200,000フレーム)は、異なる季節にわたって仮想車両から取得される。 0.82
This dataset was employed to evaluate the methods in [50], [80]. このデータセットは[50],[80]のメソッドを評価するために使われました。 0.77
Aerial depth [95]: Because of the large variation of viewpoints during a flight, models trained with the abovementioned ground datasets are far from satisfaction when dealing with aerial images. 空中深度[95]:飛行中の視点のばらつきが大きいため、上記の地上データセットで訓練されたモデルは、航空画像を扱う際の満足度にはほど遠い。 0.80
Therefore, Teixiera et al proposed the Aerial depth dataset as a virtual outdoor dataset that is specially designed for simulating data captured in UVA working conditions. そのため、Texieraらは、UVA作業環境で取得したデータをシミュレーションするために特別に設計された仮想屋外データセットとして、空中深度データセットを提案した。 0.59
The dataset contains 83797 RGB and depth images from 18 virtual 3D models, and 67435 of them are selected for training and the rest for validation of models. データセットには18の仮想3dモデルの83797 rgbと深度画像が含まれており、そのうち67435がトレーニング、残りがモデルの検証のために選択されている。 0.67
This dataset was employed to evaluate the method in [95]. このデータセットを [95] で評価するために用いた。 0.69
Virtual KITTI [27]: As the name suggests, this dataset is a virtual version of the KITTI dataset. 仮想KITTI [27]: 名前が示すように、このデータセットはKITTIデータセットの仮想バージョンである。 0.83
Five videos of the KITTI (0001/0002/0006/0018 /0020) are cloned through the Unity engine. KITTIの5つのビデオ(0001/0002/0006/0018 /0020)はUnityエンジンを介してクローンされる。 0.57
The whole dataset consists of 35 virtual videos (about 17000 frames). データセット全体は35の仮想ビデオ(約17000フレーム)で構成されている。 0.72
Each cloned virtual video will be further modified to obtain 7 variations. 各クローンされた仮想ビデオはさらに7つのバリエーションを得るように修正される。 0.60
The modification includes changing features of the objects, changing the camera’s position and orientation, and changing the lighting condition. この変更には、オブジェクトの特徴の変更、カメラの位置と方向の変更、照明条件の変更が含まれる。 0.77
This dataset was employed to evaluate the methods in [51], [80], [88], [107]. このデータセットは、[51], [80], [88], [107]のメソッドを評価するために使われました。 0.81
SceneNet RGB-D [73]: The SceneNet RGB-D dataset aims at providing a large scale dataset which is suitable for model pre-training. SceneNet RGB-Dデータセットは、モデル事前トレーニングに適した大規模なデータセットを提供することを目的としています。 0.75
This dataset contains 5 Million RGBD indoor images from over 15,000 synthetic trajectories with 320×240 image resolution. このデータセットには、320×240の解像度を持つ15,000以上の合成軌道からの500万のrgbd屋内画像が含まれている。 0.46
Each trajectory has 300 rendered frames. 各軌道は300個のフレームを有する。 0.72
Due to ray-tracing, the generated images can reach the real-photo level quality. レイトレーシングにより、生成された画像は実光レベルの品質に達することができる。 0.57
This dataset was employed to evaluate the method in [107]. このデータセットは[107]のメソッドを評価するために使われました。 0.66
6.3 Evaluation Metrics Depth completion and monocular depth estimation generally share the same evaluation metrics. 6.3 評価基準 深さの完成度と単眼深度推定は一般的に同じ評価基準を共有する。 0.63
We list the most commonly used measures as follows: もっともよく使われる尺度は以下のとおりである。 0.69
• RMSE: Root mean squared error defined in equation •RMSE:方程式で定義されるルート平均二乗誤差 0.72
• MAE: Mean absolute error defined in equation (5). • MAE: 方程式 (5) で定義される絶対誤差。 0.84
• iRMSE: RMSE of − 1 ˆYi • iMAE: MAE of •iRMSE:-1のRMSE •iMAE:MAE 0.31
the inverse depth, defined by inverse depth (複数形 inverse depths) 0.65
the inverse depth, defined by inverse depth (複数形 inverse depths) 0.65
(cid:17)2 i=1 (出典:17)2 i=1 である。 0.52
Yi Yi (複数形 Yis) 0.23
. (6). (cid:114) (cid:80)n (cid:80)n . (6). (cid:114) (cid:80)n (cid:80)n 0.41
1 n i=1 1n i=1 である。 0.34
1 n (cid:16) 1 (cid:12)(cid:12)(cid :12) 1 1n (cid:16) 1 (cid:12)(cid:12)(cid :12) 1 0.38
Yi Yi (複数形 Yis) 0.23
− 1 ˆYi (cid:12)(cid:12)(cid :12). -1/YYYY (cid:12)(cid:12)(cid :12)。 0.36
The above four measures are metrics commonly used to evaluate models in the KITTI benchmark. 上記の4つの尺度は、KITTIベンチマークのモデルを評価するのによく使われる指標である。 0.56
Among them, その中でも 0.59
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
13 Summary of essential characteristics of existing unguided methods on the KITTI dataset. 13 KITTIデータセットにおける既存の未案内手法の本質的特徴の概要 0.81
For denoting the loss function, we omit the coefficient of 損失関数を示すために、係数を省略する。 0.70
each loss term for simplicity. 各損失項は単純さを表す。 0.59
S denotes supervised learning of models. S はモデルの教師付き学習を意味する。 0.55
TABLE 3 3DV ACCV 表3 3DV ACCV 0.54
Method SI-CNN [98] DCCS [12] HMS-Net [45] NConv-CNN [21] pNCNN [20] DCAE [102] WACVW SI-CNN [98] DCCS [12] HMS-Net [45] NConv-CNN [21] pNCNN [20] DCAE [102] WACVW 0.47
Publication Year 2017 2018 2019 2018 2020 2022 2020 2020 公開年 2018年 2018年 2018年 2020年 20222020年 0.87
IR L1 [68] IR L2 [68] IR L1[68] IR L2[68] 0.48
BMVC CVPR CVPR CVPR BMVC CVPR CVPR CVPR 0.42
TIP Type SACNN SACNN SACNN NCNN NCNN TwAI TwAI TwAI TIP 種類 SACNN SACNN NCNN NCNN TwAI TwAI TwAI 0.51
Loss Function Learning RMSE (mm) 損失機能 RMSE (mm) の学習 0.83
l2 l2 + ltv l2 l2 + ltv 0.43
l2 lberhu lud l2 ルバーフ ルード 0.41
1 l1 + limg l1 + limg l2 + limg 1 l1 + limg l1 + limg l2 + limg 0.44
2 2 S S S S S S S S 2 2 S S S S S S S S 0.42
1601.33 1325.37 937.48 1268.22 960.05 1464.69 915.86 901.43 1601.33 1325.37 937.48 1268.22 960.05 1464.69 915.86 901.43 0.21
Platform TensorFlow TensorFlow プラットフォームTensorFlow TensorFlow 0.80
- PyTorch PyTorch PyTorch PyTorch PyTorch - PyTorch PyTorch PyTorch PyTorch PyTorch 0.43
Code (cid:88) (cid:88)(cid:88) (cid:88)- コード (cid:88) (cid:88)(cid:88) (cid:88)- 0.39
KITTI ranks algorithms in competitions in the order of RMSE. KITTIはRMSEの順にアルゴリズムをランク付けしている。 0.73
Thus, many previous methods have aimed to choose RMSE (l2) as a loss function to train models. このように、多くの従来手法はRMSE (l2) をモデルトレーニングの損失関数として選択することを目的としていた。
訳抜け防止モード: このように、これまで多くの方法が モデル学習のための損失関数としてrmse(l2)を選択する。
0.64
Besides, several metrics are also frequently used in many methods for depth evaluation, such as また、いくつかのメトリクスは、深さ評価など、多くの手法で頻繁に使用される。 0.63
(cid:80)n • REL: Mean relative error defined by 1 i=1 n • δ: Thresholded accuracy defined by max( Yi , ˆYi (cid:80)n rel: 1 i=1 n • δ で定義される平均相対誤差: max(yi) で定義されるしきい値付き精度 0.61
τ where τ is a given threshold. τ は τ が与えられた閾値である。 0.75
|Yi− ˆYi| . ˆYi ) = δ < |Yi− . = δ < である。 0.49
ˆYi Yi REL and δ are commonly used for evaluation of models on indoor datasets, e g , NYU-v2. ジイイイ rel と δ は一般に屋内データセット(例えば nyu-v2)のモデルの評価に用いられる。 0.58
Evaluation of depth maps is an open issue. 深度マップの評価はオープンな問題である。 0.79
The above metrics cannot precisely measure the quality of reconstructed compositional patterns such as objects. 上記のメトリクスは、オブジェクトのような再構成された構成パターンの品質を正確に測定することはできない。 0.60
Therefore, researchers also attempted to propose new evaluation metrics. そのため、研究者は新たな評価指標の提案も試みた。 0.66
In [40], object boundaries extracted from the depth map are measured. 40]では、深度マップから抽出されたオブジェクト境界を測定する。 0.88
Koch et al [56] introduced the planarity error and location accuracy of depth boundaries. Koch et al [56] は平面誤差と深さ境界の位置精度を導入した。 0.81
Jiang et al [52] proposed two metrics for quantifying the flatness of planes and the straightness of lines for depth maps. Jiang et al [52] は平面の平坦性と深度マップの直線の直線性を定量化する2つの指標を提案した。 0.78
However, owing to the lack of dense ground truth, such metrics are still difficult to be applied to depth completion. しかし、密度の強い地盤の真理が欠如しているため、深度補修にはそのような測度を適用することは依然として困難である。 0.56
7 EXPERIMENTAL ANALYSES In this section, we compare and review previous methods from comprehensive aspects. 7 実験分析 この節では,従来の手法を包括的側面から比較検討する。 0.69
Specifically, we select some representative works from each category and elucidate their major characteristics, including network structure, loss function, learning strategy, model performance, etc. 具体的には,ネットワーク構造,損失関数,学習戦略,モデル性能など,各カテゴリから代表的作品を選定し,その主な特徴を明らかにする。 0.92
Table 3 and Table 4 show a comparison of existing unguided and RGB guided methods on the KITTI dataset, respectively, where the RMSE values are taken from either the public KITTI benchmark or the original papers. 表3と表4は、それぞれ、公開kittiベンチマークまたは元の論文からrmse値を取り出すkittiデータセット上の既存のunguidedおよびrgbガイドメソッドの比較を示す。
訳抜け防止モード: 表3と表4は、KITTIデータセット上の既存の非ガイド付きおよびRGBガイド付きメソッドの比較を示す。 RMSE値は、パブリックなKITTIベンチマークまたはオリジナルの論文から取られる。
0.77
Table 5 shows a comparison of RGB guided methods on the NYU-v2 dataset. 表5は、NYU-v2データセット上のRGBガイドされたメソッドの比較を示す。 0.63
We use the RMSE metric for performance comparison. RMSE測定値を用いて性能比較を行う。 0.80
In the following sections, our findings are summarized. 以下の節では、調査結果を要約する。 0.61
7.1 Main Characteristics of Existing Methods 7.1 既存手法の主な特徴 0.82
1) A relatively smaller number of prior works employ the route of performing completion from the sparse depth input. 1) 比較的少ない先行作品では、スパース深度入力から完了させる経路を用いる。 0.68
In comparison, more recent works are RGBguided, among which the majority route is to perform late fusion of RGB and depth images instead of early fusion. 対照的に、最近の研究はRGBguidedであり、その大部分は、初期の融合ではなく、RGBと深度画像の後期融合を行うことである。 0.76
2) PyTorch is the most popular deep learning library for implementing depth completion methods. 2) PyTorchは深度補完手法を実装するための最も人気のあるディープラーニングライブラリである。 0.70
The overwhelming majority of previous studies implement their methods with PyTorch. これまでの研究の圧倒的多数はPyTorchで実装されている。 0.49
3) KITTI is the most popularly used evaluation benchmark. 3) KITTIは最も一般的な評価ベンチマークである。 0.78
Almost all leading methods provide results on this dataset. ほとんどすべてのリードメソッドがこのデータセットで結果を提供する。 0.65
Moreover, NYU-v2 is the second most popular dataset. さらに、NYU-v2は2番目に人気のあるデータセットである。 0.57
Since depth maps of NYU-v2 are captured by Kinect, previous works implement their methods by randomly and uniformly sampling 200 or 500 pixels as valid depth points. NYU-v2の深度マップはKinectによってキャプチャされるため、従来の研究はランダムに200または500ピクセルを有効深度点としてサンプリングすることでその手法を実装していた。 0.59
4) More complicated neural network modules have been recently developed to advance the performance of depth completion models. 4) より複雑なニューラルネットワークモジュールが, 深度補完モデルの性能向上のために開発されている。 0.84
For example, many methods propose to embed surface normal, affinity matrices, and residual maps into their network models. 例えば、多くの手法がネットワークモデルに曲面正規性、親和性行列、残留写像を組み込むことを提案している。
訳抜け防止モード: 例えば、多くの方法が提案される サーフェス・ノーマル 親和性行列 残余マップを ネットワーク・モデルに組み込むためです
0.64
5) The learning objectives identified for depth completion tasks are intuitive and relatively straightforward to optimize. 5) 深度完了タスクで特定される学習目的は直感的で, 比較的容易に最適化できる。 0.74
For example, many methods penalize just l1 or l2 loss of depth maps, and still achieve good performance. 例えば、多くの手法は深さマップの l1 または l2 の損失だけを罰し、それでも優れた性能を実現している。 0.60
7.2 Unguided and Guided Methods There are two benefits of unguided methods. 7.2 Unguided and Guided Methods 非Guidedメソッドの利点は2つあります。 0.77
First, unguided methods are more robust to environments with light or weather changes since they only take sparse depth maps as inputs. 第一に、誘導されていない手法は、少ない深度マップのみを入力として使うため、光や天候の変化のある環境に対してより堅牢である。 0.50
Moreover, for the same reason, they are more computationally efficient. さらに、同じ理由で、より計算効率が良い。 0.63
However, unguided methods show inferior performance due to the lack of semantic cues and the irregular distribution of captured depth points. しかし,非案内手法は,意味的手がかりの欠如や捕獲深度の不規則分布により性能が劣っている。 0.67
As seen in Table 3, the best unguided method [68] yields RMSE of 901.43 millimeters on the KITTI dataset. 表 3 に見られるように、[68] では、kitti データセット上で rmse が 901.43 mm になる。 0.58
Note that [68] also uses RGB images to guide model training. 68]はモデルトレーニングのガイドにRGBイメージも使用しています。 0.86
The best result obtained using an RGB-free method in both the training and inference stage is demonstrated in [45] with RMSE of 937.48. RMSE 937.48の[45]において,RGBフリーのトレーニングおよび推論段階で得られた最良の結果を示した。 0.80
On the other hand, as seen in Table 4, the best RGB guided method, i.e., DySPN, demonstrates a significantly better result with RMSE of 709.12. 一方、テーブル4で見られるように、最高のRGBガイド法であるDySPNは、RMSEの709.12よりもはるかに良い結果を示す。 0.68
Moreover, many RGB guided methods can easily beat the best unguided approach. さらに、多くのrgbガイド手法は、最善の誘導のないアプローチに容易に打ち勝つことができる。 0.53
Specifically, except for 3coef [47], EncDec-Net[EF] [101], Morph-Net [16] and CSPN [11], all other RGB guided methods with supervised learning outperform HMS-Net, showing the advance of leveraging RGB information. 具体的には、3coef [47], EncDec-Net[EF] [101], Morph-Net [16], CSPN [11]を除き、教師付き学習によるHMS-Netの性能向上を図り、RGB情報の活用の進歩を示している。
訳抜け防止モード: 具体的には、3coef [ 47 ], EncDec - Net[EF ] [ 101 ]を除く。 Morph - Net [ 16 ] と CSPN [ 11 ] 教師付き学習による他のRGBガイド手法はすべてHMS-Net RGB情報を活用する進歩を示す。
0.81
Another difference is that unguided methods cannot utilize additional unsupervised losses derived from images, e g , photometric loss. もう1つの違いは、誘導されていない方法では、画像、例えば、測光損失から追加の教師なし損失を利用できないことである。 0.48
7.3 Comparison of RGB Guided Methods For RGB guided methods, from Table 4, we can observe the following results: 7.3 表4からrgb誘導法におけるrgb誘導法の比較を行い、以下の結果が得られた。
訳抜け防止モード: 7.3 表4からのRGBガイド法の比較(RGBガイド法) 以下の結果を見ることができます
0.86
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
14 Summary of essential characteristics of selected existing RGB guided methods on the KITTI dataset. 14 KITTIデータセット上で選択された既存RGBガイド手法の基本特性の概要 0.62
For denoting loss functions, we omit the coefficient of each loss term for simplicity. 損失関数を示すために、各損失項の係数を省略して単純化する。 0.73
S and U denotes supervised learning and unsupervised learning of models, respectively. s と u はそれぞれモデルの教師なし学習と教師なし学習を表す。 0.58
Accordingly, the top and bottom parts of the table show the supervised and unsupervised methods implemented for depth completion, respectively. したがって 表の上部と下部は、それぞれ深さの完了のために実装された教師なしのメソッドと教師なしのメソッドを示しています。 0.54
TABLE 4 Method 3coef [47] EncDec-Net[EF] [101] 表4 メソッド3coef [47] EncDec-Net[EF] [101] 0.39
Long et al [65] Morph-Net [16] S2DNet [34] Spade-RGBD [50] MS-Net[LF] [101] Long et al [65] Morph-Net [16] S2DNet [34] Spade-RGBD [50] MS-Net[LF] [101] 0.45
TCI 3DV TPAMI MSG-CHN [59] WACV IJCNN RAL ITSC TIP TCI 3DV TPAMI MSG-CHN [59] WACV IJCNN al itsc TIP 0.46
MAFN [126] Ryu et al [84] DVMN [81] GuideNet [93] MAFN [126] Ryu et al [84] DVMN [81] GuideNet [93] 0.43
Publication Year 2019 CVPR 2019 TPAMI 2020 Qu et al [80] WACV JVCIR 2021 2018 ACIVS 2020 2018 2019 2020 2020 2021 2021 2020 2021 2021 2019 2020 2019 2021 2019 2019 2021 2022 2020 2021 2022 2018 2020 2020 2021 2022 2019 2019 2019 2019 2020 2021 2021 2021 2021 Publication Year 2019 CVPR 2019 TPAMI 2020 Qu et al [80] WACV JVCIR 2021 2018 ACIVS 2020 2018 2019 2020 2020 2021 2021 2020 2021 2021 2019 2020 2019 2021 2019 2019 2021 2022 2020 2021 2022 2018 2020 2020 2021 2022 2019 2019 2019 2019 2020 2021 2021 2021 2021 0.42
SSGP [86] WACV Arxiv MVA Access ICCV TIP CVPR ICCV RAL Arxiv AAAI RAL AAAI ECCV AAAI ECCV ICRA AAAI ICRA Arxiv CVPR ITSC RAL RAL RAL ICCV TITS SSGP [86] WACV Arxiv MVA Access ICCV TIP CVPR ICCV RAL Arxiv AAAI RAL AAAI ECCV AAAI ECCV ICRA AAAI ICRA CVPR そのal RAL ral ICCV TITS 0.41
RigNet [117] Van et al [99] CrossGuidance [58] 2D-3D FuseNet [7] ACMNet [129] DeepLiDAR [79] PwP [113] ABCD [51] Du et al [19] FCFR-Net [63] DenseLiDAR [32] Zhu et al [131] CSPN [11] CSPN++ [10] NLSPN [77] PENet [42] DySPN [61] SS-S2D (d) [70] DFineNet [124] DDP [119] DFuseNet [88] VOICED [109] ScaffFusion-U [107] ScaffFusion-S&U [107] KBNet [110] Song et al [90] RigNet [117] Van et al [99] CrossGuidance [58] 2D-3D FuseNet [7] ACMNet [129] DeepLiDAR [79] PwP [113] ABCD [51] Du et al [19] FCFR-Net [63] DenseLiDAR [32] Zhu et al [131] CSPN [11] CSPN++ [10] NLSPN [77] PENet [42] DySPN [61] SS-S2D (d) [70] DFineNet [124] DDP [119] DFuseNet [88] VOICED [10] Scaffsion-U-Ufsion [10] Fusion [10] 0.43
Type EFM/EDN EFM/EDN EFM/EDN EFM/EDN EFM/C2RP EFM/C2RP LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEDN LFM/DEDN LFM/DEDN LFM/GLDP LFM/GLDP E3DR/3DAC E3DR/3DAC E3DR/ISNR E3DR/ISNR E3DR/LfPC E3DR/LfPC 種類 EFM/EDN EFM/EDN EFM/EDN EFM/EDN EFM/C2RP EFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEDN LFM/DEDN LFM/GLDP LFM/GLDP E3DR/3DAC E3DR/ISNR E3DR/ISNR E3DR/ISNR E3DR/ISNR E3DR/LfPC E3DR/LfPC 0.44
RDM RDM RDM SPM SPM SPM SPM SPM RDM RDM SPM SPM SPM SPM SPM 0.37
EFM/EDN EFM/EDN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN EFM/EDN EFM/EDN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN LFM/DEN 0.24
Loss Function Learning RMSE (mm) 損失機能 RMSE (mm) の学習 0.83
lce l1 lhuber lce l1 ルバー 0.44
l1 + lcosine l1 + lcosine 0.47
l2 l1 + l2 iMAE l2 l1 + l2 iMAE 0.41
l1 l2 l2 l2 + lsmooth l2 + lsmooth l1 l2 l2 l2 + lsmooth l2 + lsmooth 0.40
l2 l2 l2 focal-MSE l2 l2 l2 focal-mse 0.29
l2 l1 + l2 l2 l1 + l2 0.39
l2 l2 + lnormal l2 l2 + lnormal 0.43
l2 + lnormal + lconf l2 + lnormal + lconf 0.50
l2 l2 l2 l2 + lgrad + lssim l2 l2 l2 l2 + lgrad + lssim 0.42
lud + lur l2 l2 lud + lur l2 l2 0.39
l1 + l2 l2 l1 + l2 l2 0.39
l1 + l2 lphoto + lsmooth l1 + l2 lphoto + lsmooth 0.41
l2 + lphoto + lsmooth l2 + lphoto + lsmooth 0.50
l1 + lcpn + lphoto + lssim l1 + lcpn + lphoto + lssim 0.48
l2 + lstereo + lsmooth l1 + lphoto + lsmooth l2 + lstereo + lsmooth l1 + lphoto + lsmooth 0.50
l1 +lphoto +lsmooth +ltp lphoto + lsmooth + ltp l1 + lphoto + lsmooth l1 + lphoto + lsmooth l1 + lphoto +lsmooth +ltp lphoto + lsmooth + ltp l1 + lphoto + lsmooth + lphoto + lsmooth 0.49
S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S U S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S S U 0.45
S&U S&U S&U S&U S&U S&U S&U S&U S&U 0.34
U S&U S&U 965.87 965.45 998.80 776.13 1045.45 830.57 917.64 859.22 762.19 803.50 809.09 776.31 736.24 838.22 712.66 772.87 807.42 752.88 732.99 758.38 777.05 764.61 773.90 735.81 755.41 751.59 1019.64 743.69 741.68 730.08 709.12 1299.85 943.89 1263.19 1206.66 1169.97 847.22 1121.89 1069.47 1216.26 U S&U S&U 965.87 965.45 998.80 776.13 1045.45 830.57 917.64 859.22 762.19 803.50 809.09 776.31 736.24 838.22 712.66 772.87 807.42 752.88 732.99 758.38 777.05 764.61 773.90 735.81 755.41 751.59 1019.64 743.69 741.68 730.08 709.12 1299.85 943.89 1263.19 1206.66 1169.97 847.22 1121.89 1069.47 1216.26 0.49
Platform TensorFlow プラットフォームTensorFlow 0.76
Pytorch Pytorch Pytorch (複数形 Pytorchs) 0.23
- Matlab PyTorch - Matlab PyTorch 0.43
- PyTorch PyTorch - ピトルチピトルチ 0.33
- PyTorch - - PyTorch - 0.43
PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch 0.42
- PyTorch PyTorch PyTorch PyTorch PyTorch - PyTorch PyTorch PyTorch PyTorch PyTorch 0.43
- PyTorch PyTorch - ピトルチピトルチ 0.33
- PyTorch PyTorch PyTorch PyTorch PyTorch - PyTorch PyTorch PyTorch PyTorch PyTorch 0.43
TensorFlow TensorFlow 0.42
PyTorch TensorFlow TensorFlow TensorFlow PyTorch TensorFlow TensorFlow TensorFlow 0.43
PyTorch PyTorch Code (cid:88) (cid:88)(cid:88)(cid :88) (cid:88)(cid:88)(cid :88)(cid:88) (cid:88)(cid:88)(cid :88)(cid:88) (cid:88)(cid:88) (cid:88)(cid:88)(cid :88) (cid:88) (cid:88) (cid:88) ピトルチピトルチ コード(cid:88)(cid:88)(cid :88)(cid:88)(cid:88) (cid:88)(cid:88)(cid :88)(cid:88)(cid:88) (cid:88)(cid:88)(cid :88)(cid:88)(cid:88) (cid:88)(cid:88)(cid :88)(cid:88)(cid:88) (cid:88))(cid:88) 0.28
• Early fusion models generally underperform other •初期核融合モデルは一般的に他の核融合モデルより劣る 0.45
types of methods. • For later fusion approaches, although a considerable number of methods are built on DEN, approaches [93], [117] based on DEDN demonstrate more significant performance improvement. メソッドの種類。 • 後の融合アプローチでは、かなりの数のメソッドがDEN上に構築されているが、DEDNに基づくアプローチ[93]、[117]は、より顕著なパフォーマンス改善を示している。 0.71
• Explicit 3D representation methods, SPN-based methods, and residual depth methods show more advanced performance and generally outperform other approaches. • 明示的な3次元表現法,SPN法,残留深さ法は,性能が向上し,他の手法よりも優れていた。 0.67
More specifically, the Top-10 performing methods on the KITTI dataset are 具体的には、KITTIデータセット上のTop-10実行メソッドは、 0.68
(i) four SPN-based models; DySPN [61], PENet [42], NLSPN [77], and CSPN++ [10], (i)SPNベースの4つのモデル、DySPN [61]、PENet [42]、NLSPN [77]、CSPN++ [10] 0.75
(ii) two residual depth models; FCFR-Net [63] and [131], (ii) FCFR-Net[63]と[131]の2つの残留深度モデル 0.89
(iii) two late fusion methods built on DEDN; RigNet [117] and GuideNet [93], and (iii)dedn上に構築した2つの後期核融合法: rignet [117] と guidenet [93] 0.78
(iv) two explicit 3D representation models; ACMNet [129] and 2D-3D FuseNet [7]. (4)ACMNet[129]と2D-3D FuseNet[7]の2つの明示的な3D表現モデル。 0.75
Based on that, we can say that the naive fusion strategy such as aggregating inputs at an early stage or concatenating features extracted by それに基づいて、入力を早い段階で集約したり、抽出した特徴を連結するといったナイーブな融合戦略を言うことができる。 0.63
a dual-encoder network in late stage is not sufficient for achieving satisfactory performance. 後期のデュアルエンコーダネットワークは、良好な性能を達成するには不十分である。 0.64
The common feature of the Top-10 performing methods is that they propose to either explicitly model geometric relationship of depth points by applying 3D-aware convolution as ACMNet and 2D-3D FuseNet, refinement with residual depth map as residual depth models and affinity matrix as SPN-based methods; or learn more effective guided kernel to weigh depth features with a complicated network design as RigNet and GuideNet. Top-10実行法では,ACMNetと2D-3D FuseNetの3D認識畳み込み,残深度モデルとしての残深度マップとSPNベースの手法としての親和性行列による改良,あるいは複雑なネットワーク設計による深度特性の重み付けを行うためのより効果的なカーネルの学習などが提案されている。 0.89
Consistent results are also observed in analyses on the NYU-v2 dataset. 一貫性のある結果はNYU-v2データセットの分析にも見られる。 0.55
As shown in Table 5, the best results are demonstrated by DySPN and RigNet. 表5に示すように、最良の結果はDySPNとRigNetによって実証される。 0.72
Besides, GuideNet, ACMNet, FCFR-net, and NLSPN also show improved performance compared to other methods. また、ガイドネット、ACMNet、FCFR-net、NLSPNは、他の手法に比べて性能が向上した。 0.62
Intuitively, the performance of depth completion has the potential to be further improved by aggregating core technical components of the above methods. 直感的には、深度補完の性能は上記の手法のコア技術コンポーネントを集約することでさらに改善される可能性がある。 0.75
For instance, by taking advantage of 3D representation networks and 例えば、3D表現ネットワークと3D表現ネットワークを利用して 0.72
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
15 Summary of essential characteristics of existing RGB guided methods on the NYU-v2 dataset. 15 NYU-v2データセットにおける既存のRGBガイド手法の本質的特徴の概要 0.58
For denoting loss functions, we omit the coefficient 損失関数を示すために係数を省略する 0.75
of each loss term for simplicity. シンプルさの損失項の1つです 0.58
S and U denotes supervised learning and unsupervised learning of models, respectively. s と u はそれぞれモデルの教師なし学習と教師なし学習を表す。 0.58
TABLE 5 Method 3coef [47] Long et al [65] DFuseNet [88] MS-Net[LF] [101] KBNet [110] SelfDeco [13] GuideNet [93] RigNet [117] PwP [113] DeepLiDAR [79] ACMNet [129] FCFR-Net [63] KernelNet [62] CSPN [11] CSPN++ [10] NLSPN [77] DySPN [61] 表5 Method 3coef [47] Long et al [65] DFuseNet [88] MS-Net[LF] [101] KBNet [110] SelfDeco [13] GuideNet [93] RigNet [117] PwP [113] DeepLiDAR [79] ACMNet [129] FCFR-Net [63] KernelNet [62] CSPN [11] CSPN++ [10] NLSPN [77] DySPN [61] 0.57
Publication Year 2019 CVPR 2021 JVCIR 2019 ITSC TPAMI 2019 2021 ICCV 2021 ICRA 2020 TIP 2021 Arxiv 2019 ICCV CVPR 2019 2021 TIP 2020 AAAI 2021 TIP 2018 ECCV AAAI 2020 2020 ECCV AAAI 2022 2019 CVPR 2021 JVCIR 2019 ITSC TPAMI 2019 2021 ICCV 2021 ICRA 2020 TIP 2021 Arxiv 2019 ICCV CVPR 2019 2021 TIP 2020 AAAI 2021 TIP 2018 ECCV AAAI 2020 ECCV AAAI 2022 0.39
Type EFM/EDN EFM/EDN LFM/EDN LFM/DEN LFM/DEN LFM/DEN LFM/DEDN LFM/DEDN E3DR/ISNR E3DR/ISNR E3DR/3DAC 種類 EFM/EDN EFM/EDN LFM/DEN LFM/DEN LFM/DEN LFM/DEDN E3DR/ISNR E3DR/ISNR E3DR/3DAC 0.46
RDM RDM SPM SPM SPM SPM RDM RDM SPM SPM SPM SPM 0.42
Loss Function Learning RMSE (mm) 損失機能 RMSE (mm) の学習 0.83
lce l1 + lcosine エース l1 + lcosine 0.48
l2 + lstereo + lsmooth l2 + lstereo + lsmooth 0.50
lhuber l1 + lphoto + lsmooth l1 + lphoto + lsmooth ルバー l1 + lphoto + lsmooth l1 + lphoto + lsmooth 0.46
l2 l2 l2 + lnormal l2 + lnormal l2 l2 l2 + lnormal l2 + lnormal 0.41
l2 l2 l1 + lce + lgrad l2 l2 l1 + lce + lgrad 0.42
l2 l2 l1 l1 + l2 l2 l2 l1 l1 + l2 0.36
S S S&U S S&U S&U S S S&U S S&U S&U 0.43
S S S S S S S S S S S S S S S S S S S S S S S 0.46
131 100 219 129 105 178 101 90 112 115 105 106 111 117 115 92 90 131 100 219 129 105 178 101 90 112 115 105 106 111 117 115 92 90 0.42
Platform TensorFlow プラットフォームTensorFlow 0.76
- PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch - PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch PyTorch 0.43
- PyTorch PyTorch - ピトルチピトルチ 0.33
- PyTorch PyTorch - ピトルチピトルチ 0.33
Code (cid:88)(cid:88) (cid:88) (cid:88)(cid:88)(cid :88) (cid:88)(cid:88) (cid:88)(cid:88) - コード (cid:88)(cid:88) (cid:88) (cid:88)(cid:88)(cid :88) (cid:88)(cid:88) (cid:88)(cid:88) - 0.36
spatial propagation networks, we can not only learn the 3D relationship within the model in a feature space but also apply post-refinement with an affinity matrix in output space. 空間伝播ネットワークでは,特徴空間におけるモデル内の3次元関係を学習するだけでなく,出力空間における親和性行列による後補正も適用できる。 0.80
In addition, we can also incorporate a DEDN with guided kernel learning into residual depth learning models. さらに、カーネル学習をガイドしたDEDNを残留深度学習モデルに組み込むこともできる。 0.71
Such combinations are straightforward, nevertheless, can be considered in practical applications to pursue high accuracy. このような組み合わせは単純であるが、高い精度を追求する実用的な応用として考えられる。 0.70
7.4 Results of unsupervised Approaches The bottom of Table 4 shows methods with unsupervised photometric loss. 7.4 表4の底に教師なしアプローチの結果は教師なしの測光損失のある方法を示している。 0.57
Results of purely unsupervised methods (without using depth consistency loss) are calculated by aligning the scale of the predicted depth map to the scale of ground truth. 予測深度マップのスケールを地上真実のスケールに整合させることにより、純粋な教師なし手法(深度一貫性損失を使わず)の結果を算出する。 0.74
First, for methods without leveraging depth consistency, such as SS-S2D (d) [70] and ScaffFusion-U [107], we can see that purely unsupervised methods demonstrate unsatisfactory performance. まず, ss-s2d (d) [70] や scafffusion-u [107] のような深さ整合性を生かさない手法では, 教師なしの手法では不十分な性能を示すことが分かる。 0.60
Second, we also observe that their performances are still inferior to supervised methods even leveraging both depth consistency loss and additional photometric loss. 第2に、奥行きの整合性損失と追加の測光損失を両立しても、その性能は監督手法に劣っていることも観察した。 0.56
As also discussed in Sec. 6.1, this is because these methods [13], [90], [107], [110], [119] use sparser depth maps as ground truths with a density of 5% than supervised methods with a density of 30%. Sec 6.1でも論じられているように、これらの手法 [13], [90], [107], [110], [119] は、密度30%の監督手法よりも5%の密度を持つ基底真理としてスペーサー深度マップを使用するためである。 0.80
8 OPEN CHALLENGES AND FUTURE DIRECTIONS 8.1 Depth Mixing Problem The depth mixing problem, also called the depth smearing problem, is attributed to the difficulty of correctly identifying pixels near object boundaries, and usually causes blurry edges and artifacts. 8 Open CHALLENGES and FUTURE DIRECTIONS 8.1 Depth Mixing Problem 深度混合問題(deepd smearing problem)は、被写体境界付近の画素を正確に識別することが困難であり、通常はぼやけたエッジやアーティファクトを引き起こすためである。 0.85
In order to alleviate this problem, 3coef. この問題を緩和するために、3coef。 0.77
[47] formulates depth completion as a one-hot encoding problem by dividing a depth map into a set of bins with fixed depth ranges. [47] 深度マップを固定深度範囲のビンの集合に分割することにより、深度完了を1ホット符号化問題として定式化する。 0.74
Imran et al [48] isolate the foreground and background depths in occlusion-boundary regions and models them, respectively. imran et al [48] は咬合境界領域において前景と背景深度を分離し, それぞれモデル化した。 0.74
NLSPN [77] makes the network learn non-local relative neighbors such that the pixels can be separated during an iterative propagation. NLSPN[77]は、反復伝播中に画素を分離できるように、ネットワークに非局所的な近接関係を学習させる。 0.66
A more simple way of achieving this separation process is to leverage the この分離プロセスを実現するより簡単な方法は 0.63
K-nearest algorithm [7], [116], [129]. k-nearestアルゴリズム [7], [116], [129]。 0.75
Besides, a boundary consistency network was added after depth completion to encourage predicting more sharp and clear boundaries [44], [94]. さらに,よりシャープで明確な境界[44],[94]を予測するために,深度完了後に境界整合性ネットワークが追加された。 0.87
However, this problem is still difficult for depth estimation tasks and needs to be continuously investigated. しかし、この問題は依然として深度推定作業には困難であり、継続的に検討する必要がある。 0.63
8.2 Flawed Ground Truth Another problem is the existence of defects in ground truth depths. 8.2 Flawed Ground Truth もう1つの問題は、地上の真実の深さに欠陥が存在することである。 0.60
First, unlike semantic segmentation, none of the existing real-world datasets can provide pixel-wise ground truth because of the limitation of depth sensors. まず、セマンティックセグメンテーションとは異なり、既存の実世界のデータセットは、深度センサーの制限のため、ピクセルワイドの地上真実を提供することができない。 0.58
Although many existing methods are trained in a supervised way, most pixels cannot be sufficiently supervised. 多くの既存手法は教師付き方式で訓練されているが、ほとんどのピクセルは十分に監督できない。 0.50
Second, the semi-dense annotations are not entirely reliable due to outliers caused by occlusions, dynamic objects, etc. 第2に、半センスアノテーションは、咬合や動的オブジェクトなどによる異常のため、完全に信頼できない。 0.60
To overcome the sparsity problem, some researchers [70], [90] turn to self-supervised frameworks to alleviate the lack of ground truth depths. 余剰問題を克服するために, [70], [90] 研究者は, 根底的な真理の深さの欠如を緩和するために, 自己監督型のフレームワークに目を向ける。 0.61
To cope with the second problem, Zhu et al [131] handle outliers by incorporating uncertainty estimation into the depth completion network. 2つ目の問題に対処するため、zhu et al [131] は奥行き完了ネットワークに不確実性推定を組み込むことで異常値を処理する。 0.54
Besides, a few works [1], [123] leverage synthetic datasets for model training. さらに、いくつかの作業 [1], [123] はモデルトレーニングに合成データセットを活用する。 0.75
However, the domain gap between real-world and synthetic data prevents a wide application of these methods. しかし、現実世界と合成データの間のドメインギャップは、これらのメソッドを広く適用することを妨げる。 0.62
Despite the above efforts made by previous studies, it is still an open issue how to exclude the effects of unreliable depths, and there are still lots of room for improvement. 上記の研究の努力にもかかわらず、信頼性の低い深さの影響を排除する方法は未解決の課題であり、改善の余地はまだまだたくさんある。 0.70
8.3 Light-weight Networks Most previous methods have complex network structures with a large number of parameters. 8.3 軽量ネットワーク 以前の手法では、多くのパラメータを持つ複雑なネットワーク構造を持つ。 0.78
Moreover, many of them take two-stage coarse-to-refinement prediction. さらに、その多くは2段階の粗大化予測を取る。 0.65
Thus, these methods are time-consuming and require high usage of hardware resources. したがって、これらの手法は時間を要するため、高いハードウェアリソースを必要とする。 0.62
However, for applications such as autonomous driving and robotic navigation, computation resources are limited and real-time inference is required. しかし、自律運転やロボットナビゲーションのようなアプリケーションでは、計算資源は限られており、リアルタイムの推論が必要である。
訳抜け防止モード: しかし、自律運転やロボットナビゲーションのような応用には。 計算リソースは限定的でリアルです - 時間推定が必要です
0.71
Although a few prior studies [2], [94], [101], [116] have partially considered the real-time problem, the model parameters are still about 10 times greater compared to that of the models used in other vision tasks, e g , monocular depth いくつかの先行研究 [2], [94], [101], [116] は部分的にリアルタイム問題を検討したが、モデルパラメータは、他の視覚タスクで使用されるモデル(例えば、単分子深度)の約10倍の大きさである。 0.78
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
estimation [38], [106]. 推定[38], [106]. 0.32
Without sacrificing too much accuracy, developing light-weight methods with fast inference speed has enormous potential for real-world deployment, thus, is a valuable research point in future work. あまりに精度を犠牲にすることなく、高速な推論速度で軽量な手法を開発することは、現実世界の展開にとって大きな可能性を秘めている。 0.63
8.4 Un/self-supervised Frameworks As discussed before, un/self-supervised learning frameworks are commonly employed solutions in the absence of dense ground truths. 8.4 un/self-supervised framework 前述したように、un/self-supervised learningフレームワークは、密接な基底真理がなければ、一般的にソリューションとして使用される。 0.45
As shown in Table 4, the accuracy of current un/self-supervised methods is still lower, and thus there is much room for further improvement of these methods compared to supervised learning based methods. 表4に示すように、現在のun/self-supervisedメソッドの精度は依然として低いため、教師付き学習ベースメソッドと比較してさらに改善の余地がある。 0.80
However, this kind of methods is not robust to dynamic objects, distant regions, etc. しかし、この種のメソッドは動的オブジェクトや遠方領域などに対して堅牢ではない。 0.85
Therefore, the improvements can be brought by leveraging more effective network structures for performing auxiliary tasks, such as pose estimation and outlier removing. したがって、ポーズ推定や異常除去といった補助タスクの実行に、より効果的なネットワーク構造を活用することで、改善がもたらされる。
訳抜け防止モード: それゆえ 改善は ポーズ推定や異常除去といった補助タスクを実行するために、より効果的なネットワーク構造を活用する。
0.71
8.5 Loss Functions and Evaluation Metrics Employment of proper loss functions is also critical to achieving satisfactory performance for depth completion. 8.5 損失関数と評価指標 適切な損失関数の活用もまた、深さ完了のための満足な性能を達成する上で重要である。 0.67
Commonly used loss functions are usually defined by a weighted sum of l2 or l1 loss functions with other auxiliary loss functions, e g , smoothness loss and SSIM loss. 一般的に用いられる損失関数は通常、他の補助損失関数、例えば、滑らかさ損失、SSIM損失を持つl2またはl1損失関数の重み付き和で定義される。 0.75
However, as discussed in [47], both l1 and l2 loss functions have their own drawbacks. しかし [47] で述べたように、l1 と l2 の損失関数はそれぞれ独自の欠点を持っている。 0.67
The choice of them is usually dataset dependent. それらの選択は通常データセットに依存します。 0.71
Similarly, current metrics cannot precisely measure the quality of scene structures. 同様に、現在のメトリクスはシーン構造の品質を正確に測定することはできない。 0.68
Although several new metrics have been introduced in [40], [47], [52], [56] for evaluating depth maps, they have not gained broad popularity. また,[40], [47], [52], [56]では, 深度マップ評価のための新しい指標がいくつか導入されているが, 広く普及していない。 0.87
Thus, designing more effective loss functions and convincing evaluation metrics is also a potential future research direction. したがって、より効果的な損失関数を設計し、評価指標を説得することが将来の研究の方向性となる。 0.63
8.6 Domain Adaptation Current benchmark datasets face the challenge of the lack of reliable depth points. 8.6 ドメイン適応 現在のベンチマークデータセットは、信頼できる深さポイントの欠如という課題に直面している。 0.51
Moreover, the data is captured under ideal lighting conditions in limited scenarios. さらに、データは限られたシナリオで理想的な照明条件下でキャプチャされる。 0.66
Thus, models trained using this type of data have no guarantee of generalization in different working conditions and domains. したがって、この種のデータを使ってトレーニングされたモデルは、異なる作業条件やドメインにおける一般化の保証を持たない。 0.59
Accordingly, it is reasonable to manipulate deep networks in simulated environments. したがって、シミュレーション環境でディープネットワークを操作することは合理的である。 0.66
Thereby, we can have not only perpixel ground truth but also changeable lighting or weather conditions with a great number of different scenarios. これにより、パーピクセルの地中真実だけでなく、多くの異なるシナリオで照明や気象条件の変更も可能となる。 0.74
Moreover, it encourages the development of more advanced methods that are difficult to be implemented in the real world. さらに、現実の世界では実装が難しいより高度な手法の開発を奨励する。 0.60
The challenge is then how to transfer the model from simulated environments to real-world scenarios. その上で、シミュレーション環境から現実のシナリオにモデルを転送する方法が課題だ。 0.81
A few works explored domain adaptation methods for depth completion [1], [66]. 深度完備化のための領域適応法をいくつかの研究で検討した [1], [66]。 0.68
However, this under-explored problem remains unknown and is worthy of further exploration. しかし、この未解明の問題はいまだ不明であり、さらなる調査にふさわしい。 0.54
8.7 Transformer-based Network Structures Recently, visual transformers (ViT) have attracted extensive attention and continuously introduced new state-of-the-art results for many perception tasks, including classification [17], semantic segmentation [91], object detection [128] and monocular depth estimation [3]. 8.7 Transformer-based Network Structures 近年,視覚変換器 (ViT) が注目され, 分類[17], セマンティックセグメンテーション[91], 物体検出[128], 単眼深度推定[3]など, 多くの知覚タスクに対して, 新たな最先端結果が継続的に導入されている。 0.83
Unlike CNNs, ViT receives CNNとは異なり、ViTは受信する 0.62
a set of image patches as input and uses self-attention for local and global feature interactions. 入力としてイメージパッチのセットで、ローカルおよびグローバルな機能インタラクションに自己アテンションを使用する。 0.60
It may bring a new paradigm shift for depth completion where more effective multi-modality data fusion and novel strategies for handling input sparsity may exist. これは、より効果的なマルチモーダリティデータ融合と入力空間を扱う新しい戦略が存在する可能性がある、深度補完のための新しいパラダイムシフトをもたらすかもしれない。
訳抜け防止モード: 深度完了のための新しいパラダイムシフトをもたらすかもしれない より効果的なマルチモーダルデータ融合と入力空間を扱う新しい戦略が存在するかもしれない。
0.67
16 8.8 Visualization and Interpretability 16 8.8 可視化と解釈可能性 0.47
A few works have attempted to understand and visualize the mechanism of CNNs for monocular depth estimation. 分子深度推定のためのCNNのメカニズムの理解と可視化を試みた研究がいくつかある。 0.61
It is shown in [15], [39], [41] that CNNs tend to use some monocular cues from RGB images for inferring depths. また, [15], [39], [41] では, CNN は深度推定に RGB 画像からの単分子的手がかりを用いる傾向がある。 0.73
In addition, as observed in [121] that the features generated inside CNNs are highly disentangled and activated to different depth ranges. さらに、[121]で観察されたように、cnnの内部で発生する特徴は高度に不連続であり、異なる深さ範囲で活性化される。 0.59
An intriguing question is what will be different if we estimate depths when a few sparse depth points are available in inputs. 興味深い疑問は、入力でわずかな深さのポイントが利用できる場合の深さを見積もれば、何が異なるかである。 0.63
Exploring and answering the above question is essential to the interpretation of learning based approaches, and has promising applications for improvement of their generalization ability, e g , facilitating domain adaptation; and robustness of deep learning based depth completion methods. 上記の質問の探索と回答は、学習に基づくアプローチの解釈に不可欠であり、一般化能力の向上、例えば、ドメイン適応の促進、深層学習に基づく深度補完法の堅牢性向上に有望な応用がある。 0.80
8.9 Robustness to Different Sensors 8.9 異なるセンサに対するロバスト性 0.65
Existing methods are only applicable to particular sensors. 既存の方法は特定のセンサーにのみ適用できる。 0.71
For instance, the most frequently used KITTI dataset is captured by a 64-line LiDAR. 例えば、最も頻繁に使用されるKITTIデータセットは64行のLiDARによってキャプチャされる。 0.65
There is no guarantee that previous methods can be applied to lower scanline sensors, such as 32-line, 16-line LiDARs, and 1-line LiDARs. 32ライン、16ラインのLiDAR、1ラインのLiDARなど、以前の方法が下位のスキャンラインセンサーに適用できることは保証されていない。 0.64
As demonstrated by [67], [70], [84], [120], the performance degradation is significant from a 64-line sensor to lower scanline sensors. また, [67], [70], [84], [120] で示されるように, 性能劣化は64ラインセンサから低スキャンラインセンサまでで顕著である。 0.82
Hence, maintaining the same level of accuracy for lower scanline sensors is challenging. したがって、低いスキャンラインセンサーで同じレベルの精度を維持することは困難である。 0.72
This underexplored problem is also practical in real-world applications since higher scanline sensors are more expensive than lower ones. この未熟な問題は、より高いスキャンラインセンサーはより低いセンサーよりも高価であるため、実世界でも実用的である。
訳抜け防止モード: この未熟な問題は実世界のアプリケーションでも実用的です。 高いスキャンラインセンサーは、より低いセンサーよりも高価である。
0.61
Therefore, ensuring the accuracy of learning based methods for various lower scanline sensors is also an important and valuable research topic. そのため,様々な下位走査型センサの学習手法の精度確保も重要かつ価値のある研究課題である。 0.81
9 CONCLUSION In this article, we present a comprehensive survey of deep learning based depth completion methods. 9 結論 本稿では,ディープラーニングに基づく深度補完手法に関する総合的な調査を行う。 0.74
Our review covers traditional and state-of-the-art network structures, loss functions, learning strategies, benchmark datasets, and evaluation metrics. 本稿では,従来のネットワーク構造,損失関数,学習戦略,ベンチマークデータセット,評価指標について概説する。 0.77
To depict the evolution process and draw the connections between existing works, we provide a fine-grained taxonomy that categorizes existing methods by jointly considering network structures and main technical contributions. 進化過程を描写し,既存の作品間のつながりを描き出すために,ネットワーク構造と主要な技術貢献を共同で考慮し,既存の手法を分類する微粒な分類法を提供する。 0.76
Moreover, we visualize the main characteristics of existing methods as well as their quantitative performance on the most popular benchmark datasets to provide an intuitive and straightforward comparison. さらに,既存の手法の主な特徴と,最も人気のあるベンチマークデータセットの定量的性能を可視化し,直感的かつ直感的な比較を行う。 0.80
We then perform in-depth analyses that summarize their performances, similarities, and differences. 次に、パフォーマンス、類似性、相違を要約した詳細な分析を行います。 0.56
Finally, we provide open challenges and promising future research directions. 最後に、オープンな課題と将来的な研究方向性を提供する。 0.56
Through the above efforts, we hope our work can help readers navigate this field. 上記の取り組みを通じて、読者がこの分野をナビゲートできることを期待しています。 0.63
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 REFERENCES 第14, No. 8, MAY 2022 参照 0.79
[1] [2] [3] [1] [2] [3] 0.42
[4] [5] [6] [4] [5] [6] 0.43
[7] [8] [9] [7] [8] [9] 0.43
A. Atapour-Abarghouei and T. P. Breckon, “To complete or to estimate, that is the question: A multi-task approach to depth completion and monocular depth estimation,” in International Conference on 3D Vision (3DV), 2019, pp. 183–193. a. atapour-abarghouei, t. p. breckon, “to complete or to estimation, that is the question: a multi-task approach to depth completion and monocular depth estimation” in international conference on 3d vision (3dv), 2019, pp. 183–193。
訳抜け防止モード: A. Atapour - AbarghoueiとT.P. Breckon。 complete (複数形 completes) 深度完備化と単分子深度推定のためのマルチタスクアプローチ」である。 In International Conference on 3D Vision (3DV) 2019 に参加して pp. 183-193。
0.70
L. Bai, Y. Zhao, M. Elhousni, and X. Huang, “Depthnet: Real-time lidar point cloud depth completion for autonomous vehicles,” IEEE Access, vol. L. Bai, Y. Zhao, M. Elhousni, and X. Huang, “Depthnet: Real-time lidar point cloud depth completion for autonomous vehicle”, IEEE Access, vol.
訳抜け防止モード: L. Bai, Y. Zhao, M. Elhousni, X. Huang 『Depthnet : Real-Time Lidar Point cloud depth completion for autonomous vehicle』 IEEE Access , vol。
0.82
8, pp. 227 825–227 833, 2020. 8, pp. 227 825–227 833, 2020. 0.50
S. Bhat, I. Alhashim, and P. Wonka, “Adabins: Depth estimation using adaptive bins,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021, pp. 4008– 4017. S. Bhat, I. Alhashim, P. Wonka, “Adabins: Depth Estimation using Adaptive bins” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021, pp. 4008–4017。
訳抜け防止モード: s. bhat, i. alhashim, p. wonka, “adabins: depth estimation using adaptive bins” ieee/cvf conference on computer vision の開催にあたって パターン認識 (cvpr) 2021, pp. 4008 – 4017。
0.78
˚A. Bj¨orck, Numerical methods for least squares problems. A! bj sorck, 最小二乗問題の数値解法。 0.44
1996. Y. Cao, Z. Wu, and C. Shen, “Estimating depth from monocular images as classification using deep fully convolutional residual networks,” IEEE Transactions on Circuits and Systems for Video Technology, vol. 1996. y. cao, z. wu, c. shen, “深層完全畳み込み残差ネットワークを用いた分類としての単眼画像からの深さを推定する” ieee transactions on circuits and systems for video technology, vol.)。
訳抜け防止モード: 1996. Y. Cao, Z. Wu, C. Shen, 深部完全畳み込み残余ネットワークを用いた分類としての単眼画像からの深度推定」 IEEE Transactions on Circuits and Systems for Video Technology, vol.
0.66
28, no. 11, pp. 3174–3182, 2017. 28 no. 11, pp. 3174-3182, 2017 頁。 0.77
Y. Chen, X. Dai, M. Liu, D. Chen, L. Yuan, and Z. Liu, “Dynamic convolution: Attention over convolution kernels,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11 030–11 039. Y. Chen, X. Dai, M. Liu, D. Chen, L. Yuan, Z. Liu, “Dynamic convolution: Attention over convolution kernels” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11 030–11 039。
訳抜け防止モード: y. chen, x. dai, m. liu, d. chen, l. yuan, z. liu, "dynamic convolution: attention over convolution kernels" ieee/cvf conference on computer vision の開催にあたって パターン認識 (cvpr) 2020, pp. 11 030–11 039。
0.74
Y. Chen, B. Yang, M. Liang, and R. Urtasun, “Learning joint 2d-3d representations for depth completion,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019, pp. 10 023–10 032. Y. Chen, B. Yang, M. Liang, R. Urtasun, “Learning joint 2d-3d representations for depth completion” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019, pp. 10 023–10 032。
訳抜け防止モード: y. chen、b. yang、m. liang、r. urtasun。 ieee/cvf international conference on computer vision (iccv) における「奥行き完了のための学習ジョイント2d-3d表現」 2019 , pp . 10 023–10 032 .
0.74
Z. Chen, V. Badrinarayanan, G. Drozdov, and A. Rabinovich, “Estimating depth from rgb and sparse sensing,” in European Conference on Computer Vision (ECCV), 2018, pp. 167–182. Z. Chen氏、V. Badrinarayanan氏、G. Drozdov氏、A. Rabinovich氏は、European Conference on Computer Vision (ECCV) 2018, pp. 167–182で、"rgbとスパースセンシングからの深さを推定する"と述べた。
訳抜け防止モード: Z. Chen, V. Badrinarayanan, G. Drozdov, A. Rabinovich 「rgbとスパースセンシングから深度を推定する」 欧州コンピュータビジョン会議(ECCV)、2018年。 pp. 167-182。
0.78
Z. Chen, H. Wang, L. Wu, Y. Zhou, and D. Wu, “Spatiotemporal guided self-supervised depth completion from lidar and monocular camera,” in IEEE International Conference on Visual Communications and Image Processing (VCIP), 2020, pp. 54–57. Z. Chen, H. Wang, L. Wu, Y. Zhou, D. Wu, “Spatiotemporal guided self-supervised depth completion from lidar and monocular camera” in IEEE International Conference on Visual Communications and Image Processing (VCIP), 2020, pp. 54–57。
訳抜け防止モード: Z. Chen, H. Wang, L. Wu, Y. Zhou とD.Wu氏は語る。「時空間ガイドされた自己 - ライダーと単眼カメラによる監督された深度補完」。 IEEE International Conference on Visual Communications and Image Processing (VCIP) 2020 , pp . 54–57 .
0.79
SIAM, [10] X. Cheng, P. Wang, C. Guan, and R. Yang, “Cspn++: Learning context and resource aware convolutional spatial propagation networks for depth completion,” in Proceedings of the AAAI Conference on Artificial Intelligence (AAAI), vol. SIAM X. Cheng, P. Wang, C. Guan, R. Yang, “Cspn++: Learning context and resource aware convolutional space propagation network for depth completion”, Proceedings of the AAAI Conference on Artificial Intelligence (AAAI) vol。
訳抜け防止モード: SIAM [10 ]X.Cheng,P.Wang,C.Gua n, そしてR. Yang氏は,“Cspn++ : Learning context and resource aware convolutional space propagation network for depth completion”と題する。 In Proceedings of the AAAI Conference on Artificial Intelligence (AAAI) に参加して
0.55
34, no. 07, 2020, pp. 10 615–10 622. 34, No. 07, 2020, pp. 10 615–10 622。 0.94
[11] X. Cheng, P. Wang, and R. Yang, “Depth estimation via affinity learned with convolutional spatial propagation network,” in European Conference on Computer Vision (ECCV), 2018, pp. 103– 119. 11] x. cheng, p. wang, r. yang, “ deep estimation via affinity learned with convolutional spatial propagation network” in european conference on computer vision (eccv), 2018, pp. 103–119. (英語)
訳抜け防止モード: [11]X.チェン、P.ワン、R.ヤン 「畳み込み空間伝播ネットワークで学習した親和性による深さ推定」 欧州コンピュータビジョン会議(ECCV)、2018年。 pp . 103 – 119 .
0.73
[12] N. Chodosh, C. Wang, and S. Lucey, “Deep convolutional compressed sensing for lidar depth completion,” in Asian Conference on Computer Vision (ACCV), 2018, pp. 499–513. [12]n. chodosh, c. wang, s. lucey, “deep convolutional compression sensing for lidar depth completion” in asian conference on computer vision (accv), 2018, pp. 499–513. (英語)
訳抜け防止モード: [12]Chodosh,C.Wang,S.Luc ey, アジアコンピュータビジョン会議(ACCV)における「ライダー深度完成のための深部畳み込み圧縮センシング」 2018 , pp . 499–513 .
0.69
J. Choi, D. Jung, Y. Lee, D. Kim, D. Manocha, and D. Lee, “Selfdeco: Self-supervised monocular depth completion in challenging indoor environments,” in IEEE International Conference on Robotics and Automation (ICRA), 2021, pp. 467–474. J. Choi氏、D. Jung氏、Y. Lee氏、D. Kim氏、D. Manocha氏、D. Lee氏は、IEEE International Conference on Robotics and Automation (ICRA)で、次のように述べている。
訳抜け防止モード: j・チェ、d・ジョン、y・リー、d・キム d. manocha, d. lee, "selfdeco : self - supervised monocular depth completion in challenging indoor environment" ieee international conference on robotics and automation (icra) に参加して 2021 , pp . 467–474 .
0.85
[13] [14] A. Dai, A. X. Chang, M. Savva, M. Halber, T. Funkhouser, and M. Nießner, “Scannet: Richly-annotated 3d reconstructions of indoor scenes,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 5828– 5839. [13] A. Dai, A. X. Chang, M. Savva, M. Halber, T. Funkhouser, and M. Nießner, “Scannet: Richly Annotated 3d reconstructions of indoor scene” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2017 pp. 5828–5839。 0.43
[15] T. v. Dijk and G. d. [15] T. v. Dijk, G. d. 0.43
Croon, “How do neural networks see depth in single images?” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 2183–2191. と、IEEE/CVF International Conference on Computer Vision, 2019, pp. 2183–2191のProceedingsに記載されている。
訳抜け防止モード: Croon, “ニューラルネットワークは単一の画像にどのように奥行きを見出すのか?” In Proceedings of the IEEE / CVF International Conference on Computer Vision 2019 , pp . 2183–2191 .
0.78
[16] M. Dimitrievski, P. Veelaert, and W. Philips, “Learning morphological operators for depth completion,” in International Conference on Advanced Concepts for Intelligent Vision Systems, 2018, pp. 450–461. [16] m. dimitrievski, p. veelaert, w. philips, “learningmorphal operators for depth completion” in international conference on advanced concepts for intelligent vision systems, 2018, pp. 450–461. (英語)
訳抜け防止モード: 16 ] M. Dimitrievski, P. Veelaert, W. Philips. 知的視覚システムのための高度な概念に関する国際会議における「深度完成のための形態学演算子」 2018 , pp . 450–461 .
0.82
[17] A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly, J. Uszkoreit, and N. Houlsby, “An image is worth 16x16 words: Transformers for image recognition at scale,” in International Conference on Learning Representations (ICLR), 2021. A. Dosovitskiy, L. Beyer, A. Kolesnikov, D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani, M. Minderer, G. Heigold, S. Gelly, J. Uszkoreit, N. Houlsby, “画像は16×16ワードの価値があります。
訳抜け防止モード: a b [17 ] A. Dosovitskiy, L. Beyer, A. Kolesnikov D. Weissenborn, X. Zhai, T. Unterthiner, M. Dehghani M. Minderer, G. Heigold, S. Gelly, J. Uszkoreit N. Houlsby氏は,“画像は16×16ワードの価値があります。 国際学習表現会議(ICLR)、2021年。
0.83
[18] R. Du, E. Turner, M. Dzitsiuk, L. Prasso, I. Duarte, J. Dourgarian, J. Afonso, J. Pascoal, J. Gladstone, N. Cruces, S. Izadi, A. Kowdle, K. Tsotsos, and D. Kim, “DepthLab: Real-Time 3D Interaction With Depth Maps for Mobile Augmented Reality,” in Proceedings of the 33rd Annual ACM Symposium on User Interface Software and Technology, 2020, pp. 829–843. 18] r. du, e. turner, m. dzitsiuk, l. prasso, i. duarte, j. dourgarian, j. afonso, j. pascoal, j. gladstone, n. cruces, s. izadi, a. kowdle, k. tsotsos, d. kim, “depthlab: real-time 3d interaction with depth maps for mobile augmented reality” in the 33rd annual acm symposium on user interface software and technology, 2020, pp. 829–843
訳抜け防止モード: [18 ]R. Du, E. Turner, M. Dzitsiuk, L. Prasso, I. Duarte, J. Dourgarian, J. Afonso J. Pascoal, J. Gladstone, N. Cruces, S. Izadi A. Kowdle, K. Tsotsos, D. Kim, “DepthLab : Real - Time 3D Interaction with Depth Maps for Mobile Augmented Reality” 第33回ACM年次シンポジウムに参加して 2020 , pp . 829–843 .
0.44
[19] W. Du, H. Chen, H. Yang, and Y. Zhang, “Depth completion using geometry-aware embedding,” arXiv preprint arXiv:2203.10912, 2022. [19]W. Du, H. Chen, H. Yang, Y. Zhang, “Depth completion using geometry-aware embeddeding, arXiv preprint arXiv:2203.10912, 2022。
訳抜け防止モード: [19 ]W. Du, H. Chen, H. Yang, Y. Zhang氏は次のように述べている。 arXiv preprint arXiv:2203.10912 , 2022
0.80
17 [20] A. Eldesokey, M. Felsberg, K. Holmquist, and M. Persson, “Uncertainty-aware cnns for depth completion: Uncertainty from beginning to end,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 12 014– 12 023. 17 A. Eldesokey, M. Felsberg, K. Holmquist, M. Persson, “Uncertainty-aware cnns for depth completion: Uncertainty from beginning to end” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 12 014–12 023。
訳抜け防止モード: 17 A. Eldesokey, M. Felsberg, K. Holmquist そして、M. Perssonは「不確かさ - 深い完成のための認識されたcnn : 最初から最後まで不確かさ」と言った。 IEEE / CVF Conference on Computer Vision に参加して CVPR, 2020, pp. 12 014 – 12 023。
0.61
[21] A. Eldesokey, M. Felsberg, and F. S. Khan, “Propagating confidences through cnns for sparse data regression,” in British Machine Vision Conference (BMVC), 2018, p. 14. 21] a. eldesokey, m. felsberg, f. s. khan両氏は,british machine vision conference (bmvc), 2018, p. 14で,“スパースデータレグレッションのためのcnnsによる信頼性向上”について講演した。
訳抜け防止モード: [21 ]A. Eldesokey, M. Felsberg, F. S. Khan 英国機械ビジョン会議(BMVC)における「疎データレグレッションのためのcnnによる信頼の促進」 2018年、p.14。
0.78
S. Farkhani, M. F. Kragh, P. H. Christiansen, R. N. Jørgensen, and H. Karstoft, “Sparse-to-dense depth completion in precision farming,” in Proceedings of the 3rd International Conference on Vision, Image and Signal Processing, 2019, pp. 1–5. S. Farkhani, M. F. Kragh, P. H. Christiansen, R. N. Jørgensen, H. Karstoft, “Sparse-to-Dense depth completion in precision agriculture” in Proceedings of the 3rd International Conference on Vision, Image and Signal Processing, 2019, pp. 1–5。
訳抜け防止モード: S. Farkhani, M. F. Kragh, P. H. Christiansen, R. N. Jørgensen とH. Karstoft氏は述べている。 第3回ビジョン・イメージ国際会議に参加して とSignal Processing , 2019 , pp. 1-5。
0.76
[22] [23] Z. Feng, L. Jing, P. Yin, Y. Tian, and B. Li, “Advancing selfsupervised monocular depth learning with sparse lidar,” in Conference on Robot Learning, 2022, pp. 685–694. [22] [23] z. feng, l. jing, p. yin, y. tian, and b. li, “advancing selfsupervised monocular depth learning with sparse lidar” in conference on robot learning, 2022, pp. 685–694。
訳抜け防止モード: [22] [23]z.feng,l.jing,p.yin, y. tian, and b. li, “sparse lidarによる自己教師付き単眼深度学習の進歩” ロボット学習に関する国際会議,2022, pp. 685-694。
0.58
[24] C. Fu, C. Dong, C. Mertz, and J. M. Dolan, “Depth completion via inductive fusion of planar lidar and monocular camera,” in IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2020, pp. 10 843–10 848. C. Fu, C. Dong, C. Mertz, J. M. Dolan, “Depth completion via inductive fusion of Planar lidar and monocular camera” in IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2020, pp. 10 843–10 848。
訳抜け防止モード: [24 ]C. Fu, C. Dong, C. Mertz, J. M. Dolan 「平面ライダーと単眼カメラの誘導融合による深度完成」 IEEE / RSJ International Conference on Intelligent Robots and Systems (IROS) 2020 , pp . 10 843–10 848 .
0.82
[25] C. Fu, C. Mertz, and J. M. Dolan, “Lidar and monocular camera fusion: On-road depth completion for autonomous driving,” in IEEE Intelligent Transportation Systems Conference (ITSC), 2019, pp. 273–278. [25] c. fu, c. mertz, j. m. dolan, “lidar and monocular camera fusion: on-road depth completion for autonomous driving” in ieee intelligent transportation systems conference (itsc), 2019, pp. 273–278.” (英語)
訳抜け防止モード: [25 ]C. Fu, C. Mertz, J. M. Dolan ライダーと単眼カメラの融合 : 自動運転のための道路深度完備化」 IEEE Intelligent Transportation Systems Conference ( ITSC), 2019 pp. 273-278。
0.73
[26] H. Fu, M. Gong, C. Wang, K. Batmanghelich, and D. Tao, “Deep ordinal regression network for monocular depth estimation,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2002–2011. H. Fu, M. Gong, C. Wang, K. Batmanghelich, D. Tao, “Deep Ordinal regression network for monocular depth estimation” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2002–2011
訳抜け防止モード: [26 ]H. Fu, M. Gong, C. Wang, K. Batmanghelich, D. Tao, “Deep Ordinal regression network for monocular depth estimation” と題された。 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition ( CVPR ), 2018, pp. 2002–2011 。
0.88
[27] A. Gaidon, Q. Wang, Y. Cabon, and E. Vig, “Virtual worlds as proxy for multi-object tracking analysis,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 4340–4349. A. Gaidon, Q. Wang, Y. Cabon, E. Vig, “Virtual worlds as proxy for multi-object tracking analysis” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2016 pp. 4340–4349。
訳抜け防止モード: 【27】a・ガイドン、q・ワン、y・カボン ieee / cvf conference on computer vision の議事録「マルチオブジェクト追跡分析のためのプロキシとしての仮想世界」 and pattern recognition (cvpr) 2016 pp. 4340-4349。
0.65
[28] M. Garnelo, D. Rosenbaum, C. J. Maddison, T. Ramalho, D. Saxton, M. Shanahan, Y. W. Teh, D. J. Rezende, and S. M. A. Eslami, “Conditional neural processes,” in International Conference on Machine Learning (ICML), 2018, pp. 1704–1713. M. Garnelo, D. Rosenbaum, C. J. Maddison, T. Ramalho, D. Saxton, M. Shanahan, Y. W. Teh, D. J. Rezende, and S. M. A. Eslami, “Conditional Neural Process” in International Conference on Machine Learning (ICML), 2018, pp. 1704–1713。
訳抜け防止モード: M. Garnelo, D. Rosenbaum, C. J. Maddison.[28 ]M. Garnelo, D. Rosenbaum, C. J. Maddison. T. Ramalho, D. Saxton, M. Shanahan, Y. W. Teh D. J. Rezende と S. M. A. Eslami は「条件付き神経過程」である。 In International Conference on Machine Learning (ICML) 2018 pp. 1704-1713。
0.67
[29] X. Glorot, A. Bordes, and Y. Bengio, “Deep sparse rectifier neural networks,” in Proceedings of the fourteenth international conference on artificial intelligence and statistics, 2011, pp. 315–323. [29] x. glorot, a. bordes, y. bengio, “deep sparse rectifier neural networks” in the 14th international conference on artificial intelligence and statistics, 2011, pp. 315–323. (英語)
訳抜け防止モード: [29 ]X. Glorot, A. Bordes, Y. Bengio 第14回人工知能国際会議に参加して and statistics , 2011 , pp . 315–323 .
0.56
[31] [30] C. Godard, O. M. Aodha, and G. J. Brostow, “Unsupervised monocular depth estimation with left-right consistency,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2017, pp. 6602–6611. [31] C. Godard, O. M. Aodha, G. J. Brostow, “Unsupervised monocular depth estimation with left-right consistency” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2017 pp. 6602–6611。
訳抜け防止モード: [31] 30 ] c. godard, o. m. aodha, g. j. brostow. ieee/cvfコンファレンス・オン・コンピュータビジョンにおける「左右の一貫性による教師なし単眼深度推定」 and pattern recognition (cvpr ), 2017 pp. 6602–6611。
0.58
I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. WardeFarley, S. Ozair, A. C. Courville, and Y. Bengio, “Generative adversarial nets,” in Advances in neural information processing systems, 2014. I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. WardeFarley, S. Ozair, A. C. Courville, Y. Bengio, “Generative adversarial nets” in advances in neural information processing system, 2014 0.48
J. Gu, Z. Xiang, Y. Ye, and L. Wang, “Denselidar: A real-time pseudo dense depth guided depth completion network,” IEEE Robotics and Automation Letters, vol. J. Gu, Z. Xiang, Y. Ye, and L. Wang, “Denselidar: a real-time pseudo dense depth guided depth completion network, IEEE Robotics and Automation Letters, vol.”。 0.48
6, no. 2, pp. 1808–1815, 2021. 6, 2, pp. 1808–1815, 2021。 0.82
[33] X. Guo, J. Hu, J. Chen, F. Deng, and T. L. Lam, “Semantic histogram based graph matching for real-time multi-robot global localization in large scale environment,” IEEE Robotics and Automation Letters, vol. IEEE Robotics and Automation Letters, vol.[33] X. Guo, J. Hu, J. Chen, F. Deng, T. L. Lam, “Semantic histogram based graph matching for real-time multi-robot global localization in large scale environment”。 0.48
6, no. 4, pp. 8349–8356, 2021. 6,4,p.8349-8356,2021 。 0.58
[32] [34] P. Hambarde and S. Murala, “S2dnet: Depth estimation from single image and sparse samples,” IEEE Transactions on Computational Imaging, vol. [32] IEEE Transactions on Computational Imaging, vol.[34] P. Hambarde, S. Murala, “S2dnet: Depth Estimation from single image and Sparse sample”. IEEE Transactions on Computational Imaging, Vol. 0.41
6, pp. 806–817, 2020. 第6巻806-817頁、2020年。 0.54
[35] K. He, J. Sun, and X. Tang, “Guided image filtering,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.[35] K. He, J. Sun, X. Tang, “Guided image filtering”, IEEE Transactions on Pattern Analysis and Machine Intelligence,
訳抜け防止モード: [35 ]k. he, j. sun, x. tang ieeeは、パターン分析とマシンインテリジェンスに関するトランザクションを処理します。
0.52
35, no. 6, pp. 1397–1409, 2013. 35, No. 6, pp. 1397–1409, 2013 0.44
[36] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 770– 778. [36] k. he, x. zhang, s. ren, j. sun, "deep residual learning for image recognition" in the proceedings of the ieee/cvf conference on computer vision and pattern recognition (cvpr), 2016 pp. 770–778。
訳抜け防止モード: [36 ]K.He,X.Zhang,S. Ren, IEEE / CVF Conference on Computer Vision に参加して And Pattern Recognition (CVPR) 2016, pp. 770 - 778。
0.54
[38] [37] G. Hegde, T. Pharale, S. Jahagirdar, V. Nargund, R. A. Tabib, U. Mudenagudi, B. Vandrotti, and A. Dhiman, “Deepdnet: Deep dense network for depth completion task,” in IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2021, pp. 2190–2199. [38] G. Hegde, T. Pharale, S. Jahagirdar, V. Nargund, R. A. Tabib, U. Mudenagudi, B. Vandrotti, A. Dhiman, “Deepdnet: Deep dense network for depth completion task” in IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), 2021, pp. 2190–2199。
訳抜け防止モード: [38] [37 ]G. Hegde, T. Pharale, S. Jahagirdar, V. Nargund, R. A. Tabib, U. Mudenagudi, B. Vandrotti ディープドネット : ディープ・コンプリート・タスクのためのディープ・ディープ・ネットワーク」。 In IEEE / CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW) 2021 , pp . 2190–2199 .
0.65
J. Hu, C. Fan, H. Jiang, X. Guo, Y. Gao, X. Lu, and T. L. Lam, “Boosting light-weight depth estimation via knowledge distillation,” arXiv preprint arXiv:2105.06143, 2021. J. Hu, C. Fan, H. Jiang, X. Guo, Y. Gao, X. Lu, T. L. Lam, “Boosting light-weight depth estimation via knowledge distillation” arXiv preprint arXiv:2105.06143, 2021
訳抜け防止モード: J. Hu, C. Fan, H. Jiang, X. Guo Y. Gao, X. Lu, T. L. Lamは「知識蒸留による光-重量深度推定」と述べている。 arXiv preprint arXiv:2105.06143 , 2021
0.80
J. Hu and T. Okatani, “Analysis of deep networks for monocular depth estimation through adversarial attacks with proposal of a defense method,” arXiv preprint arXiv:1911.08790, 2019. J. Hu, T. Okatani, “A Analysis of deep network for monocular depth estimation through adversarial attack with proposal of a defense method” arXiv preprint arXiv:1911.08790, 2019”。
訳抜け防止モード: J. Hu, T. Okatani, “敵攻撃による単眼深度推定のためのディープネットワークの解析と防御手法の提案” arXiv preprint arXiv:1911.08790, 2019。
0.87
J. Hu, M. Ozay, Y. Zhang, and T. Okatani, “Revisiting single image depth estimation: Toward higher resolution maps with accurate object boundaries,” in Proceedings of the IEEE/CVF Winter J. Hu, M. Ozay, Y. Zhang, T. Okatani, “Revisiting single image depth estimation: towards higher resolution map with accurate object boundary” in Proceedings of the IEEE/CVF Winter
訳抜け防止モード: J. Hu, M. Ozay, Y. Zhang, T. Okatani 「単一画像深度推定を再考する : 正確な対象境界を持つ高解像度地図に向けて」 in Proceedings of the IEEE / CVF Winter
0.84
[39] [40] [39] [40] 0.42
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
[41] Conference on Applications of Computer Vision (WACV), 2019, pp. 1043–1051. [41] コンピュータビジョン応用会議(wacv)2019, pp. 1043-1051。 0.53
J. Hu, Y. Zhang, and T. Okatani, “Visualization of convolutional neural networks for monocular depth estimation,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 3869–3878. J. Hu, Y. Zhang, T. Okatani, “Visualization of convolutional neural network for monocular depth estimation” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 3869–3878.”. IEEE/CVFによるコンピュータビジョンに関する国際会議。
訳抜け防止モード: J. Hu, Y. Zhang, T. Okatani, “モノクル深度推定のための畳み込みニューラルネットワークの可視化”。 In Proceedings of the IEEE / CVF International Conference on Computer Vision 2019 , pp . 3869–3878 .
0.88
[42] M. Hu, S. Wang, B. Li, S. Ning, L. Fan, and X. Gong, “Penet: Towards precise and efficient image guided depth completion,” in IEEE International Conference on Robotics and Automation (ICRA), 2021, pp. 13 656–13 662. [42] m. hu, s. wang, b. li, s. ning, l. fan, x. gong, “penet: towards accurate and efficient image guided depth completion” in ieee international conference on robotics and automation (icra), 2021, pp. 13 656–13 662. ]
訳抜け防止モード: [42 ]Hu,S.Wang,B.Li, S.Ning、L. Fan、X.Gongは「ペネ : 精密で効率的な画像誘導深度完成を目指して」と述べている。 IEEE International Conference on Robotics and Automation (ICRA) に参加して 2021 , pp . 13 656–13 662 .
0.79
J. Hua and X. Gong, “A normalized convolutional neural network for guided sparse depth upsampling,” in Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence (IJCAI), 2018, pp. 2283–2290. J. Hua and X. Gong, “A normalized convolutional neural network for guideed sparse depth upsampling” in Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence (IJCAI), 2018, pp. 2283–2290。
訳抜け防止モード: j. huaとx. gongは、”sparse depth upsamplingの正規化畳み込みニューラルネットワーク”だ。 第20-第7回人工知能国際合同会議(ijcai)の開催にあたって 2018 , pp . 2283–2290 .
0.70
[43] [44] Y. [43] [44]y。 0.39
-K. Huang, T. -H. -K。 フン、t。 -h。 0.55
Wu, Y. -C. Liu, and W. H. Hsu, “Indoor depth completion with boundary consistency and self-attention,” in Proceedings of the IEEE/CVF International Conference on Computer Vision Workshops, 2019, pp. 0–0. ウー、y。 -C。 Liu, and W. H. Hsu, “Indoor depth completion with boundary consistency and self-attention” in Proceedings of the IEEE/CVF International Conference on Computer Vision Workshops, 2019, pp. 0–0。
訳抜け防止モード: ウー、y。 -C。 liu, and w. h. hsu, "境界整合性を備えた屋内深度完了" コンピュータビジョンワークショップに関するieee/cvf国際会議の議事録「注意」 2019 , pp . 0–0 .
0.55
[45] Z. Huang, J. Fan, S. Cheng, S. Yi, X. Wang, and H. Li, “Hms-net: Hierarchical multi-scale sparsity-invariant network for sparse depth completion,” IEEE Transactions on Image Processing, vol. IEEE Transactions on Image Processing, vol.[45] Z. Huang, J. Fan, S. Cheng, S. Yi, X. Wang, H. Li, “Hms-net: Hierarchical multi-scale sparsity-invariant network for sparse depth completion”. IEEE Transactions on Image Processing.com(英語)
訳抜け防止モード: [45] z. huang, j. fan, s. cheng, s. yi, x. wang, h. li, "hms - net : hierarchy multi - scale sparsity - invariant network for sparse depth completion" ieeeは画像処理でトランザクションを処理します。
0.70
29, pp. 3429–3441, 2019. 29, pp. 3429-3441, 2019 頁。 0.74
[46] P. J. Huber, “Robust estimation of a location parameter,” in [46]P.J. Huber, “Robust Estimation of a location parameters” 0.40
[47] [48] [49] [47] [48] [49] 0.43
Breakthroughs in statistics, 1992, pp. 492–518. 統計学、1992年、p.492-518。 0.80
S. Imran, Y. Long, X. Liu, and D. Morris, “Depth coefficients for depth completion,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 12 438– 12 447. s. imran, y. long, x. liu, and d. morris, " depth coefficients for depth completion" は、ieee/cvf conference on computer vision and pattern recognition (cvpr), 2019, pp. 12 438– 12 447の論文である。 0.73
S. M. Imran, X. Liu, and D. D. Morris, “Depth completion with twin surface extrapolation at occlusion boundaries,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021, pp. 2583–2592. s. m. imran, x. liu, d. d. morris は、ieee/cvf conference on computer vision and pattern recognition (cvpr) 2021, pp. 2583–2592 において「咬合境界での双対表面補間による深い補完」を行った。 0.69
S. Ito, N. Kaneko, and K. Sumi, “Seeing farther than supervision: Self-supervised depth completion in challenging environments,” in International Conference on Machine Vision and Applications (MVA), 2021, pp. 1–5. S. Ito, N. Kaneko, K. Sumi 両氏は,2021, pp. 1-5 で,“S. Ito, N. Kaneko, K. Sumi, “Seeing far than supervision: Self-supervised depth completion in challenge environment” と題して,MVA(Machine Vision and Applications)に関する国際会議を開催した。
訳抜け防止モード: S. Ito, N. Kaneko, K. Sumi, 監督以上のものを見る 国際機械ビジョン会議における「挑戦的環境における自己監督深度補完」 and Applications ( MVA ), 2021, pp . 1-5 。
0.83
[50] M. Jaritz, R. D. Charette, E. Wirbel, X. Perrotton, and F. Nashashibi, “Sparse and dense data with cnns: Depth completion and semantic segmentation,” in International Conference on 3D Vision (3DV), 2018, pp. 52–60. [50]M。 Jaritz, R. D. Charette, E. Wirbel, X. Perrotton, F. Nashashibi, “Sparse and dense data with cnns: Depth completion and semantic segmentation” in International Conference on 3D Vision (3DV), 2018, pp. 52–60。
訳抜け防止モード: [50]M。 ジャリッツ r. d. チャレット e. wirbel, x. perrotton and f. nashashibi, “sparse and dense data with cnns: depth completion and semantic segmentation” 2018年3dビジョン国際会議(3dv)参加報告 52-60頁。
0.56
[51] Y. Jeon, H. Kim, and S. 【51】y・ジュン、h・キム、s 0.49
-W. Seo, “Abcd: Attentive bilateral convolutional network for robust depth completion,” IEEE Robotics and Automation Letters, vol. -W。 seo, “abcd: attentive bilateral convolutional network for robust depth completion” ieee robotics and automation letters, vol. 日本語版記事)。 0.62
7, no. 1, pp. 81–87, 2021. 7, No. 1, pp. 81-87, 2021。 0.91
[52] H. Jiang, L. Ding, J. Hu, and R. Huang, “Plnet: Plane and line priors for unsupervised indoor depth estimation,” in International Conference on 3D Vision (3DV), 2021, pp. 741–750. He52] H. Jiang, L. Ding, J. Hu, and R. Huang, “Plnet: Plane and line priors for unsupervised indoor depth estimation” in International Conference on 3D Vision (3DV), 2021, pp. 741–750。
訳抜け防止モード: [52 ]H. Jiang, L. Ding, J. Hu, R. Huang氏は次のように述べている。 "Plnet : Plane and line priors for unsupervised internal depth estimation"。 国際3次元ビジョン会議(3DV)2021年 741-750頁。
0.84
[53] A. Kendall and Y. Gal, “What uncertainties do we need in bayesian deep learning for computer vision?” [53] a. kendall と y. gal は、コンピュータビジョンのベイズ深層学習にはどんな不確実性が必要ですか? 0.75
Advances in neural information processing systems, vol. ニューラル・インフォメーション・プロセッシング・システム, vol. の進歩 0.48
30, 2017. [54] M. F. F. Khan, N. D. Troncoso Aldas, A. Kumar, S. Advani, and V. Narayanan, “Sparse to dense depth completion using a generative adversarial network with intelligent sampling strategies,” in Proceedings of the 29th ACM International Conference on Multimedia, 2021, pp. 5528–5536. 30, 2017. [54] m. f. f. khan, n. d. troncoso aldas, a. kumar, s. advani, v. narayananは, 第29回acm international conference on multimedia, 2021, pp. 5528–5536(acm international conference on multimedia, 2021, pp. 5528–5536)の議事録で,“知的サンプリング戦略を備えた生成的敵意ネットワークを用いた,濃密な奥行きの完成に乏しい”と述べている。
訳抜け防止モード: 30, 2017. [54 ]M.F.F.カーン、N.D.トロンコソ・アルダス A. Kumar, S. Advani, V. Narayanan, “Sparse to dense depth completion” インテリジェントなサンプリング戦略を備えた 生成的敵ネットワークを使って」 第29回 ACM International Conference on Multimedia, 2021 に参加して pp. 5528-5536。
0.61
[55] H. Knutsson and C. 55] H. Knutsson と C. 0.81
-F. Westin, “Normalized and differential convolution,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 1993, pp. 515–523. -F。 westin, “normalized and differential convolution” は、ieee/cvf conference on computer vision and pattern recognition (cvpr) 1993, pp. 515–523の議事録である。 0.61
[57] [56] T. Koch, L. Liebel, M. K¨orner, and F. Fraundorfer, “Comparison of monocular depth estimation methods using geometrically relevant metrics on the ibims-1 dataset,” Computer Vision and Image Understanding, vol. [57] [56] T. Koch, L. Liebel, M. K sorner, F. Fraundorfer, “Ibims-1データセット上の幾何学的関連指標を用いた単眼深度推定法の比較”, Computer Vision and Image Understanding, vol。 0.63
191, p. 102877, 2020. 191, p. 102877, 2020。 0.91
I. Laina, C. Rupprecht, V. Belagiannis, F. Tombari, and N. Navab, “Deeper depth prediction with fully convolutional residual networks,” in International Conference on 3D Vision (3DV), 2016, pp. 239–248. I. Laina, C. Rupprecht, V. Belagiannis, F. Tombari, N. Navab, “Deeper depth prediction with fully convolutional residual network” in International Conference on 3D Vision (3DV), 2016 pp. 239–248。
訳抜け防止モード: I. Laina, C. Rupprecht, V. Belagiannis, F. Tombari, N. Navab 3次元ビジョン国際会議(3DV)における「完全畳み込み残差ネットワークによる深度予測」 2016 , pp . 239–248 .
0.89
S. Lee, J. Lee, D. Kim, and J. Kim, “Deep architecture with cross guidance between single image and sparse lidar data for depth completion,” IEEE Access, vol. S. Lee、J. Lee、D. Kim、そしてJ. Kimは、“ディープアーキテクチャは、単一の画像と少ないライダーデータの間のクロスガイダンスで深度を補完する。 0.69
8, pp. 79 801–79 810, 2020. 8, pp. 79 801–79 810, 2020. 0.50
[58] [59] A. Li, Z. Yuan, Y. Ling, W. Chi, C. Zhang et al , “A multi-scale guided cascade hourglass network for depth completion,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2020, pp. 32–40. [58] A. Li, Z. Yuan, Y. Ling, W. Chi, C. Zhang et al , “A multi-scale guided cascade hourglass network for depth completion” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2020, pp. 32–40。
訳抜け防止モード: [58] [59 ]A.Li,Z.元,Y.Ling, W. Chi, C. Zhang et al, “マルチスケールガイド付カスケードグラスネットワークは、深度を補完する。 In Proceedings of the IEEE / CVF Winter Conference on Applications of Computer Vision (WACV) 2020 , pp . 32–40 .
0.65
[60] Y. Liao, L. Huang, Y. Wang, S. Kodagoda, Y. Yu, and Y. Liu, “Parse geometry from a line: Monocular depth estimation with partial laser observation,” in 2017 IEEE international conference on robotics and automation (ICRA), 2017, pp. 5059–5066. Y. Liao, L. Huang, Y. Wang, S. Kodagoda, Y. Yu, Y. Liu, “Parse geometry from a line: Monocular depth estimation with partial laser observed” 2017 IEEE International conference on Roboticss and Automation (ICRA), 2017 pp. 5059–5066。
訳抜け防止モード: 60 ] y. liao, l. huang, y. wang. s. kodagoda, y. yu, y. liu, “parse geometry from a line: monocular depth estimation with partial laser observation” 2017年、ieee international conference on robotics and automation (icra) が開催された。 2017 , pp . 5059–5066 .
0.82
18 [61] Y. Q. Lin, T. Cheng, Q. Zhong, W. Zhou, and H. Yang, “Dynamic spatial propagation network for depth completion,” in Proceedings of the AAAI Conference on Artificial Intelligence (AAAI), 2022. 18 aaai conference on artificial intelligence (aaai) 2022の議事録には, [61] y. q. lin, t. cheng, q. zhong, w. zhou, h. yang, “dynamic spatial propagation network for depth completion” と書かれている。 0.59
[62] L. Liu, Y. Liao, Y. Wang, A. Geiger, and Y. Liu, “Learning steering kernels for guided depth completion,” IEEE Transactions on Image Processing, vol. [62] L. Liu, Y. Liao, Y. Wang, A. Geiger, Y. Liu, “Learning steering kernels for guided depth completion”, IEEE Transactions on Image Processing, vol。
訳抜け防止モード: [62 ]L.Liu,Y.Liao,Y.Wang, A. Geiger、Y. Liu、” 深度をガイドするカーネルを学習する”。 IEEE Transactions on Image Processing , vol。
0.79
30, pp. 2850–2861, 2021. pp. 2850-2861, 2021。 0.37
[63] L. Liu, X. Song, X. Lyu, J. Diao, M. Wang, Y. Liu, and L. Zhang, “Fcfr-net: Feature fusion based coarse-to-fine residual learning for depth completion,” in Proceedings of the AAAI Conference on Artificial Intelligence (AAAI), vol. [63] L. Liu, X. Song, X. Lyu, J. Diao, M. Wang, Y. Liu, L. Zhang, “Fcfr-net: Feature fusion based coarse-to-fine residual learning for depth completion” in Proceedings of the AAAI Conference on Artificial Intelligence (AAAI) vol. 0.49
35, no. 3, 2021, pp. 2136–2144. 35, no. 3, 2021, pp. 2136-2144。 0.89
S. Liu, S. De Mello, J. Gu, G. Zhong, M. S. Liu, S. De Mello, J. Gu, G. Zhong, M。 0.46
-H. Yang, and J. Kautz, “Learning affinity via spatial propagation networks,” in Advances in Neural Information Processing Systems, 2017, pp. 1520–1530. -h。 Yang, and J. Kautz, “Learning affinity via space propagation network” in Advances in Neural Information Processing Systems, 2017, pp. 1520–1530。
訳抜け防止モード: -h。 yang, and j. kautz, “learning affinity via spatial propagation networks” ニューラル・インフォメーション・プロセッシング・システムズ、2017年、p.1520-1530。
0.69
[64] [65] Y. Long, H. Yu, and B. Liu, “Depth completion towards different sensor configurations via relative depth map estimation and scale recovery,” Journal of Visual Communication and Image Representation, vol. [64] Journal of Visual Communication and Image Representation, vol.[65] Y. Long, H. Yu, B. Liu, “相対深度マップ推定とスケールリカバリによるセンサ構成への深度完了”。 0.60
80, p. 103272, 2021. 80, p. 103272, 2021。 0.93
[66] A. Lopez-Rodriguez, B. Busam, and K. Mikolajczyk, “Project to adapt: Domain adaptation for depth completion from noisy and sparse sensor data,” in Asian Conference on Computer Vision (ACCV), 2020. A. Lopez-Rodriguez氏、B. Busam氏、K. Mikolajczyk氏は、2020年のAsia Conference on Computer Vision (ACCV)で次のように述べている。
訳抜け防止モード: [66 ] A. Lopez - Rodriguez, B. Busam, K. Mikolajczyk氏は「適応するプロジェクト : ノイズとスパースセンサーデータからの深度補正のためのドメイン適応」と述べた。 アジアコンピュータビジョン会議(ACCV)、2020年。
0.76
[67] H. Lu, S. Xu, and S. Cao, “Sgtbn: Generating dense depth maps from single-line lidar,” IEEE Sensors Journal, vol. H. Lu, S. Xu, and S. Cao, “Sgtbn: Generating dense depth map from single-line lidar”, IEEE Sensors Journal, vol。 0.39
21, no. 17, pp. 19 091–19 100, 2021. 21, 17, pp. 19 091–19 100, 2021。 0.80
[68] K. Lu, N. Barnes, S. Anwar, and L. Zheng, “From depth what can you see? depth completion via auxiliary image reconstruction,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020, pp. 11 303–11 312. [68] k. lu, n. barnes, s. anwar, l. zheng, “from depth what can you see? depth completion via auxiliary image reconstruction” in the proceedings of the ieee/cvf conference on computer vision and pattern recognition (cvpr), 2020, pp. 11 303–11 312. “from depth what can you see?
訳抜け防止モード: [68 ]K. Lu, N. Barnes, S. Anwar, L. Zhengは曰く、“奥行きから見て?画像の補助的再構成による深度完了”。 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition ( CVPR ), 2020, pp. 11 303–11 312 。
0.85
[69] F. Ma, L. Carlone, U. Ayaz, and S. Karaman, “Sparse depth sensing for resource-constrained robots,” The International Journal of Robotics Research, vol. The International Journal of Robotics Research, vol.[69] F. Ma, L. Carlone, U. Ayaz, S. Karaman, “リソースに制約のあるロボットの少ない深度検知”。 0.90
38, no. 8, pp. 935–980, 2019. 38, No. 8, pp. 935-980, 2019。 0.48
[70] F. Ma, G. V. Cavalheiro, and S. Karaman, “Self-supervised sparse-to-dense: Self-supervised depth completion from lidar and monocular camera,” in International Conference on Robotics and Automation (ICRA), 2019, pp. 3288–3295. F. Ma, G. V. Cavalheiro, S. Karaman, “Self-supervised sparse-to-dense: Self-supervised depth completion from lidar and monocular camera”. International Conference on Robotics and Automation (ICRA), 2019, pp. 3288–3295。
訳抜け防止モード: [70 ]F. Ma, G. V. Cavalheiro, S. Karaman ライダーとモノクラーカメラによる自己監督型スパースから高密度 : 自己監督型奥行き完成」 International Conference on Robotics and Automation (ICRA) 2019に参加して pp. 3288-3295。
0.68
[72] [71] F. Ma and S. Karaman, “Sparse-to-dense: Depth prediction from sparse depth samples and a single image,” in IEEE International Conference on Robotics and Automation (ICRA), 2018, pp. 4796–4803. [72] IEEE International Conference on Robotics and Automation (ICRA) 2018, pp. 4796–4803.[71] F. Ma, S. Karaman, “Sparse-to-dense: Depth Prediction from sparse depth sample and a single image”. IEEE International Conference on Robotics and Automation (ICRA), 2018. 4796–4803
訳抜け防止モード: [72] [71 ]F. Ma, S. Karaman, “Sparse - to- dense : Depth Prediction from sparse depth sample IEEE International Conference on Robotics and Automation(ICRA)で発表された。 2018 , pp . 4796–4803 .
0.63
J. Masci, J. Angulo, and J. Schmidhuber, “A learning framework for morphological operators using counter–harmonic mean,” in International Symposium on Mathematical Morphology and Its Applications to Signal and Image Processing, 2013, pp. 329–340. J. Masci, J. Angulo, and J. Schmidhuber, “A learning framework for morphological operator using counter-harmonic mean” in International Symposium on Mathematical Morphology and its Applications to Signal and Image Processing, 2013, pp. 329–340。
訳抜け防止モード: J. Masci、J. Angulo、J. Schmidhuberは、"カウンタ-調和平均を用いたモルフォロジー演算子の学習フレームワーク"である。 In International Symposium on Mathematical Morphology and its application to Signal and Image Processing, 2013 , pp . 329–340 .
0.83
J. McCormac, A. Handa, S. Leutenegger, and A. J. Davison, “Scenenet rgb-d: 5m photorealistic images of synthetic indoor trajectories with ground truth,” arXiv preprint arXiv:1612.05079, 2016. J. McCormac, A. Handa, S. Leutenegger, A. J. Davison, “Scenenet rgb-d: 5m photorealistic image of synthetic indoor trajectories with ground truth”. arXiv preprint arXiv:1612.05079, 2016.
訳抜け防止モード: J. McCormac, A. Handa, S. Leutenegger, A. J. Davison 「Scenenet rgb - d : 5m光写実画像」 arXiv preprint arXiv:1612.05079 , 2016。
0.80
[73] [74] C. Murdock, M. Chang, and S. Lucey, “Deep component analysis via alternating direction neural networks,” in European Conference on Computer Vision (ECCV), 2018, pp. 820–836. [73] C. Murdock, M. Chang, and S. Lucey, “Deep component analysis via alternating direction neural network” in European Conference on Computer Vision (ECCV), 2018, pp. 820–836。
訳抜け防止モード: [73] [74 ]C. Murdock, M. Chang, S. Lucey 欧州コンピュータビジョン会議(ECCV)における「交互方向ニューラルネットワークによる深部成分分析」 2018 , pp . 820–836 .
0.61
[75] E. Nadaraya, “On estimating regression,” Theory of Probability and [75]E.ナダラヤ,「回帰の推定」,確率論と確率論 0.78
Its Applications, vol. 9, pp. 141–142, 1964. 応用はvol.1。 9, pp. 141–142, 1964。 0.72
[76] A. B. Owen, “A robust hybrid of lasso and ridge regression,” 76] a. b. owen, “a robust hybrid of lasso and ridge regression” 0.36
Contemporary Mathematics, vol. 443, no. 7, pp. 59–72, 2007. 現代数学』第1巻。 443, no. 7, pp. 59-72, 2007。 0.50
J. Park, K. Joo, Z. Hu, C. j・パーク、k・ジュ、z・ヒュー、c 0.65
-K. Liu, and I. So Kweon, “Non-local spatial propagation network for depth completion,” in European Conference on Computer Vision (ECCV), 2020, pp. 120–136. -K。 Liu, and I. So Kweon, “Non-local spatial propagation network for depth completion” in European Conference on Computer Vision (ECCV), 2020, pp. 120–136。
訳抜け防止モード: -K。 Liu, I. So Kweon, “Non-local spatial propagation network for depth completion” 欧州コンピュータビジョン会議(ECCV)2020 pp. 120-136。
0.58
[77] [78] T. Park, M. [77] 78]t.パーク m. 0.51
-Y. Liu, T. -y。 Liu, T。 0.39
-C. Wang, and J. -C。 とJは言った。 0.43
-Y. Zhu, “Semantic image synthesis with spatially-adaptive normalization,” in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR), 2019, pp. 2337–2346. -y。 zhu, “semantic image synthesis with spatiallyadaptive normalization” は、ieee/cvf conference on computer vision and pattern recognition (cvpr) 2019, pp. 2337-2346の議事録である。
訳抜け防止モード: -y。 Zhu, “空間的適応正規化による意味的画像合成” in Proceedings of the IEEE / CVF conference on computer vision and pattern recognition (CVPR) 2019 , pp . 2337–2346 .
0.64
J. Qiu, Z. Cui, Y. Zhang, X. Zhang, S. Liu, B. Zeng, and M. Pollefeys, “Deeplidar: Deep surface normal guided depth prediction for outdoor scene from sparse lidar data and single color image,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 3308–3317. j. qiu, z. cui, y. zhang, x. zhang, s. liu, b. zeng, and m. pollefeys, “deeplidar: deep surface normal guided depth prediction for outdoor scene from sparse lidar data and single color image” in proceedings of ieee/cvf conference on computer vision and pattern recognition (cvpr), 2019, pp. 3308–3317。
訳抜け防止モード: J. Qiu, Z. Cui, Y. Zhang, X. Zhang S. Liu, B. Zeng, and M. Pollefeys, “Deeplidar : Deep surface normal guided depth prediction for outdoor scene from sparse lidar data and single color image” IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition ( CVPR ), 2019, pp. 3308–3317 。
0.46
[79] [80] C. Qu, T. Nguyen, and C. Taylor, “Depth completion via deep basis fitting,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2020, pp. 71–80. [79] C. Qu, T. Nguyen, C. Taylor, “Depth completion via Deep basis fit” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2020, pp. 71–80。
訳抜け防止モード: [79] 80 ] c. qu, t. nguyen, c. taylor。 コンピュータビジョン(wacv)の応用に関するieee/cvfウィンターコンファレンスにおける「深部ベースフィッティングによる奥行き完了」 2020 , pp . 71–80 .
0.59
[81] L. Reichardt, P. Mangat, and O. Wasenm ¨uller, “Dvmn: Dense validity mask network for depth completion,” in IEEE International Intelligent Transportation Systems Conference (ITSC), 2021, pp. 2653–2659. IEEE International Intelligent Transportation Systems Conference (ITSC) 2021, pp. 2653–2659. [81] L. Reichardt, P. Mangat, O. Wasenm suller, “Dvmn: Dense validity mask network for depth completion”. 0.43
[82] O. Ronneberger, P. Fischer, and T. Brox, “U-net: Convolutional networks for biomedical image segmentation,” in International Conference on Medical image computing and computer-assisted intervention (MICCAI), 2015, pp. 234–241. [82] o. ronneberger, p. fischer, t. brox, “u-net: convolutional networks for biomedical image segmentation” in international conference on medical image computing and computer-assisted intervention (miccai), 2015 pp. 234–241。
訳抜け防止モード: 82) O. Ronneberger, P. Fischer, T. Brox バイオメディカルイメージセグメンテーションのための畳み込みネットワーク」 International Conference on Medical Image Computing and Computer - Assisted intervention (MICCAI) に参加して 2015 , pp . 234–241 .
0.84
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
19 [83] G. Ros, L. Sellart, J. Materzynska, D. Vazquez, and A. M. Lopez, “The synthia dataset: A large collection of synthetic images for semantic segmentation of urban scenes,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2016, pp. 3234–3243. 19 [83] g. ros, l. sellart, j. materzynska, d. vazquez, and a. m. lopez, “the synthia dataset: a large collection of synthetic images for semantic segmentation of urban scene” in proceedings of ieee/cvf conference on computer vision and pattern recognition (cvpr), 2016 pp. 3234–3243. (英語)
訳抜け防止モード: 19 [83 ]G. Ros,L. Sellart,J. Materzynska,D. Vazquez, シンシアデータセット : 都市景観のセマンティックセグメンテーションのための合成画像の大規模な収集」 in Proceedings of the IEEE / CVF Conference on Computer Vision and Pattern Recognition (CVPR) 2016 , pp . 3234–3243 .
0.59
[84] K. Ryu, K. [84]K.Ryu,K。 0.37
-i. Lee, J. Cho, and K. -i。 リー、J・チョー、K。 0.70
-J. Yoon, “Scanline resolutioninvariant depth completion using a single image and sparse lidar point cloud,” IEEE Robotics and Automation Letters, vol. -j。 Yoon, IEEE Robotics and Automation Letters, vol. “Scanline resolution invariant depth completion using a single image and sparse lidar point cloud”。
訳抜け防止モード: -j。 Yoon, “Scanline resolution invariant depth completion” 1枚の画像と、まばらなライダーポイントの雲を使って。 IEEE Robotics and Automation Letters, vol。
0.75
6, no. 4, pp. 6961–6968, 2021. 6,4,p.6961-6968,2021 。 0.60
[85] M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, and L. M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, L. 0.37
-C. Chen, “Mobilenetv2: Inverted residuals and linear bottlenecks,” in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR), 2018, pp. 4510–4520. -C。 chen, “mobilenetv2: inverted residuals and linear bottlenecks” ieee/cvf conference on computer vision and pattern recognition(cvpr, 2018, pp. 4510–4520)の議事録に書かれている。 0.58
[86] R. Schuster, O. Wasenmuller, C. Unger, and D. Stricker, “Ssgp: Sparse spatial guided propagation for robust and generic interpolation,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2021, pp. 197–206. R. Schuster, O. Wasenmuller, C. Unger, D. Stricker, “Ssgp: Sparse space guided propagation for robust and generic interpolation” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 2021, pp. 197–206。
訳抜け防止モード: [86 ]R. Schuster, O. Wasenmuller, C. Unger, D. Strickerはこう言う: “Ssgp : Sparse space guided propagation for robust and generic interpolation”。 In Proceedings of the IEEE / CVF Winter Conference on Applications of Computer Vision (WACV) 2021 , pp . 197–206 .
0.47
[87] D. Senushkin, M. Romanov, 87]D. Senushkin, M. Romanov, 0.44
I. Belikov, N. Patakin, and A. Konushin, “Decoder modulation for indoor depth completion,” in IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, pp. 2181–2188. I. Belikov, N. Patakin, and A. Konushin, “Decoder modulation for indoor depth completion” in IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), 2021, pp. 2181–2188。 0.47
S. S. Shivakumar, T. Nguyen, I. D. Miller, S. W. Chen, V. Kumar, and C. J. Taylor, “Dfusenet: Deep fusion of rgb and sparse depth information for image guided dense depth completion,” in IEEE Intelligent Transportation Systems Conference (ITSC), 2019, pp. 13– 20. S.S. Shivakumar, T. Nguyen, I. D. Miller, S. W. Chen, V. Kumar, C. J. Taylor氏は、IEEE Intelligent Transportation Systems Conference (ITSC) 2019, pp. 13–20で、"Dfusenet: Deep fusion of rgb and sparse depth information for image guided dense depth completion"と題している。 0.86
[88] [89] N. Silberman, D. Hoiem, P. Kohli, and R. Fergus, “Indoor segmentation and support inference from rgbd images,” in European Conference on Computer Vision (ECCV), vol. [88] N. Silberman, D. Hoiem, P. Kohli, R. Fergus, “Indoor segmentation and support inference from rgbd images” in European Conference on Computer Vision (ECCV) vol.[89] N. Silberman, D. Hoiem, P. Kohli, R. Fergus。
訳抜け防止モード: [88] [89 ]N. Silberman, D. Hoiem, P. Kohli, R. Fergus 欧州コンピュータビジョン会議(ECCV)において,rgbd画像からの屋内セグメンテーションとサポート推論について検討した。
0.64
7576, 2012, pp. 746– 760. 7576, 2012, pp. 746-760。 0.87
[90] Z. Song, J. Lu, Y. Yao, and J. Zhang, “Self-supervised depth completion from direct visual-lidar odometry in autonomous driving,” IEEE Transactions on Intelligent Transportation Systems, 2021. Z. Song, J. Lu, Y. Yao, and J. Zhang, “Self-supervised depth completion from direct visual-lidar odometry in autonomous driving”, IEEE Transactions on Intelligent Transportation Systems, 2021。
訳抜け防止モード: [90]z.song,j.lu,y.yao. そしてj. zhang氏は、"自律運転における直接視覚 - ライダーオドメトリからの自己 - 教師付き奥行き完了"だ。 ieee transactions on intelligent transportation systems、2021年。
0.53
[91] R. A. M. Strudel, R. G. Pinel, I. Laptev, and C. Schmid, “Segmenter: Transformer for semantic segmentation,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 7242–7252. R. A. M. Strudel, R. G. Pinel, I. Laptev, C. Schmid, “Segmenter: Transformer for semantic segmentation” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 7242–7252。
訳抜け防止モード: 91 ] r. a. m. strudel, r. g. pinel, i. laptev, c. schmid氏, “segmenter : transformer for semantic segmentation” ieee/cvf国際コンピュータビジョン会議(iccv)の開催にあたって 2021 , pp . 7242–7252 .
0.83
[92] H. Su, V. Jampani, D. Sun, S. Maji, E. Kalogerakis, M. [92]H. Su, V. Jampani, D. Sun, S. Maji, E. Kalogerakis, M. 0.47
-H. Yang, and J. Kautz, “Splatnet: Sparse lattice networks for point cloud processing,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2530–2539. -h。 Yang, and J. Kautz, “Splatnet: Sparse lattice network for point cloud processing” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2530–2539。
訳抜け防止モード: -h。 yang, and j. kautz, “splatnet : sparse lattice networks for point cloud processing” ieee/cvf conference on computer vision の開催にあたって パターン認識 (cvpr) 2018, pp. 2530-2539。
0.75
J. Tang, F. -P. j・タン、f。 -P。 0.55
Tian, W. Feng, J. Li, and P. Tan, “Learning guided convolutional network for depth completion,” IEEE Transactions on Image Processing, vol. Tian, W. Feng, J. Li, P. Tan, “Learning guided convolutional network for depth completion”, IEEE Transactions on Image Processing, vol。
訳抜け防止モード: Tian, W. Feng, J. Li, P. Tan 画像処理に関するIEEE Transactions,vol.“Learning Guided Convolutional Network for depth completion, ”。
0.86
30, pp. 1116–1129, 2021. pp. 1116-1129, 2021。 0.69
[93] [94] Z. Tao, P. Shuguo, Z. Hui, and S. Yingchun, “Dilated u-block for lightweight indoor depth completion with sobel edge,” IEEE Signal Processing Letters, vol. [93] [94] z. tao, p. shuguo, z. hui, s. yingchun, “sobel edgeによる軽量室内深度完了のための拡張u-block”, ieee signal processing letters, vol. 。 0.62
28, pp. 1615–1619, 2021. 28, pp. 1615–1619, 2021。 0.94
[95] L. Teixeira, M. R. Oswald, M. Pollefeys, and M. Chli, “Aerial single-view depth completion with image-guided uncertainty estimation,” IEEE Robotics and Automation Letters, vol. in95] l. teixeira, m. r. oswald, m. pollefeys, and m. chli, “aerial single-view depth completion with image-guided uncertainty estimation”, ieee robotics and automation letters, vol. chli。
訳抜け防止モード: [95 ]L. Teixeira, M. R. Oswald, M. Pollefeys, とM. Chli氏は述べている。 IEEE Robotics and Automation Letters, vol。
0.60
5, no. 2, pp. 1055–1062, 2020. 5, 2, pp. 1055–1062, 2020。 0.81
[96] C. Tomasi and R. Manduchi, “Bilateral filtering for gray and color images,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 1998, pp. 839–846. [96] c. tomasi と r. manduchi は ieee/cvf international conference on computer vision (iccv), 1998, pp. 839-846 で "バイラテラルフィルタリング (bilateral filter for gray and color images)" を行った。 0.81
[97] Y. Tsuji, H. Chishiro, and S. Kato, “Non-guided depth completion with adversarial networks,” in International Conference on Intelligent Transportation Systems (ITSC), 2018, pp. 1109–1114. [97] Y. Tsuji, H. Chishiro, S. Kato, “Non-guided depth completion with adversarial network” in International Conference on Intelligent Transportation Systems (ITSC, 2018, pp. 1109–1114。
訳抜け防止モード: 【97年】辻y、千代h、加藤s. itc(international conference on intelligent transportation systems)における「非誘導奥行き完了と敵ネットワーク」 2018 , pp . 1109–1114 .
0.70
J. Uhrig, N. Schneider, L. Schneider, U. Franke, T. Brox, and A. Geiger, “Sparsity invariant cnns,” in International Conference on 3D Vision (3DV), 2017, pp. 11–20. J. Uhrig, N. Schneider, L. Schneider, U. Franke, T. Brox, and A. Geiger, “Sparsity invariant cnns” in International Conference on 3D Vision (3DV), 2017 pp. 11–20. (英語)
訳抜け防止モード: J. Uhrig, N. Schneider, L. Schneider, U. Franke T. Brox, A. Geiger, “sprsity invariant cnns”。 2017年、国際3Dビジョン会議(3DV)に参加。 pp. 11-20。
0.87
[98] [99] W. Van Gansbeke, D. Neven, B. De Brabandere, and L. Van Gool, “Sparse and noisy lidar completion with rgb guidance and uncertainty,” in International Conference on Machine Vision Applications (MVA), 2019, pp. 1–6. [98] W. Van Gansbeke, D. Neven, B. De Brabandere, L. Van Gool, “Sparse and noisy lidar completion with rgb guidance and uncertainty” in International Conference on Machine Vision Applications (MVA), 2019, pp. 1-6。
訳抜け防止モード: [98] [99 ]W. Van Gansbeke, D. Neven, B. De Brabandere, そしてL. Van Gool氏は,“rgbのガイダンスと不確実性を備えた,まばらで騒々しいライダーの完成”だ,と述べている。 The International Conference on Machine Vision Applications (MVA) 2019 に参加して pp. 1-6。
0.55
[100] X. Cheng, P. Wang, and R. Yang, “Learning depth with convolutional spatial propagation network,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.[100] X. Cheng, P. Wang, R. Yang, “Learning depth with convolutional space propagation network, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.
訳抜け防止モード: [100 ]X.Cheng,P.Wang,R.Yan g 畳み込み空間伝播ネットワークを用いた深度学習,パターン解析と機械知能に関するIEEE Transactions,vol。
0.72
42, pp. 2361–2379, 2020. 42, pp. 2361–2379, 2020。 0.92
[101] A. Eldesokey, M. Felsberg, and F. S. Khan, “Confidence propagation through cnns for guided sparse depth regression,” IEEE transactions on pattern analysis and machine intelligence, vol. A. Eldesokey, M. Felsberg, F. S. Khan, “Confidence propagation through cnns for guided sparse depth regression”, IEEEのパターン分析と機械学習に関するトランザクション Vol. 0.77
42, no. 10, pp. 2423–2436, 2019. 42, no. 10, pp. 2423-2436, 2019。 0.96
[102] K. Lu, N. Barnes, S. Anwar, and L. Zheng, “Depth completion auto-encoder,” in IEEE/CVF Winter Conference on Applications of Computer Vision Workshops (WACVW), 2022, pp. 63–73. K. Lu, N. Barnes, S. Anwar, and L. Zheng, “Depth completion auto-encoder” in IEEE/CVF Winter Conference on Applications of Computer Vision Workshops (WACVW), 2022, pp. 63–73。
訳抜け防止モード: [102 ]K. Lu, N. Barnes, S. Anwar, と L. Zheng 氏は IEEE / CVF Winter Conference on Applications of Computer Vision Workshops (WACVW ) で述べている。 2022 , pp . 63–73 .
0.85
[103] S. Wang, S. Suo, W. [103]S.Wang,S.Suo,W。 0.35
-C. Ma, A. Pokrovsky, and R. Urtasun, “Deep parametric continuous convolutional neural networks,” -C。 ma, a. pokrovsky, r. urtasun, "ディープパラメトリック連続畳み込みニューラルネットワーク" 0.51
in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 2589–2597. ieee/cvf conference on computer vision and pattern recognition (cvpr, 2018, pp. 2589–2597) で発表された。 0.72
[104] Y. Wang, Y. Sun, Z. Liu, S. E. Sarma, M. M. Bronstein, and J. M. Solomon, “Dynamic graph cnn for learning on point clouds,” ACM Transactions on Graphics (TOG), vol. [104] Y. Wang, Y. Sun, Z. Liu, S. E. Sarma, M. M. Bronstein, J. M. Solomon, “Dynamic graph cnn for learn on point clouds”, ACM Transactions on Graphics (TOG), Vol.
訳抜け防止モード: [104 ] Y. Wang, Y. Sun, Z. Liu, S.E.サーマ、M.M.ブロンスタイン、J.M.ソロモン。 ポイントクラウドで学ぶための動的グラフcnn、ACM Transactions on Graphics (TOG )、vol。
0.78
38, pp. 1 – 12, 2019. 38, pp. 1 – 12, 2019. 0.43
[105] Z. Wang, A. C. Bovik, H. R. Sheikh, and E. P. Simoncelli, “Image quality assessment: from error visibility to structural similarity,” IEEE Transactions on Image Processing, vol. Z.Wang, A. C. Bovik, H. R. Sheikh, E. P. Simoncelli, “画像品質評価:エラーの可視性から構造的類似性に至るまで”, IEEE Transactions on Image Processing, vol。 0.84
13, pp. 600–612, 2004. 13, pp. 600-612, 2004。 0.85
[106] D. Wofk, F. Ma, T. 106] D. Wofk, F. Ma, T. 0.43
-J. Yang, S. Karaman, and V. Sze, “Fastdepth: Fast monocular depth estimation on embedded systems,” in IEEE International Conference on Robotics and Automation (ICRA), 2019, pp. 6101–6108. -j。 Yang, S. Karaman, V. Sze, “Fastdepth: Fast monocular depth estimation on embedded systems” in IEEE International Conference on Robotics and Automation (ICRA), 2019, pp. 6101–6108。
訳抜け防止モード: -j。 yang, s. karaman, v. sze, “fastdepth: fast monocular depth estimation on embedded systems”(英語) ieee international conference on robotics and automation (icra) に参加して 2019 , pp . 6101–6108 .
0.78
[107] A. Wong, S. Cicek, and S. Soatto, “Learning topology from synthetic data for unsupervised depth completion,” IEEE Robotics and Automation Letters, vol. IEEE Robotics and Automation Letters, vol.[107] A. Wong, S. Cicek, and S. Soatto, “Learning topology from synthetic data for unsupervised depth completion”. IEEE Robotics and Automation Letters. 0.45
6, no. 2, pp. 1495–1502, 2021. 6, 2, pp. 1495–1502, 2021。 0.81
[108] A. Wong, X. Fei, B. [108]A.Wong,X.Fei,B。 0.42
-W. Hong, and S. Soatto, “An adaptive framework for learning unsupervised depth completion,” IEEE Robotics and Automation Letters, vol. -W。 香港とs. soattoは、“教師なしの奥行き完了を学習するための適応フレームワーク”だ、とieee robotics and automation letters, vol.3は述べている。
訳抜け防止モード: -W。 Hong, and S. Soatto, “教師なし深度学習のための適応的フレームワーク” IEEE Robotics and Automation Letters, vol。
0.79
6, no. 2, pp. 3120–3127, 2021. 6, 2, pp. 3120-3127, 2021。 0.77
[109] A. Wong, X. Fei, S. Tsuei, and S. Soatto, “Unsupervised depth completion from visual inertial odometry,” IEEE Robotics and Automation Letters, vol. 109] a. wong, x. fei, s. tsuei, and s. soatto, “unsupervised depth completion from visual inertial odometry”, ieee robotics and automation letters, vol. 109)。
訳抜け防止モード: [109 ] a. wong, x. fei, s. tsuei, そしてs. soattoは、”unsupervised depth completion from visual inertial odometry”(視覚慣性オドメトリーによる教師なし奥行き完了)だ。 ieee robotics and automation letters(英語)
0.53
5, no. 2, pp. 1899–1906, 2020. 5巻2頁、1899-1906年、2020年。 0.57
[110] A. Wong and S. Soatto, “Unsupervised depth completion with calibrated backprojection layers,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 12 747–12 756. [110] a. wong と s. soatto は ieee/cvf international conference on computer vision (iccv), 2021, pp. 12 747–12 756 の議事録で "unsupervised depth completion with calibrated backprojection layers" と題している。 0.81
[111] Y. -F. [111]y。 -F。 0.38
Wu, V. -H. Trant, T. ウー、v。 -h。 トラント、t。 0.66
-W. Chang, W. -W。 チャン、w。 0.67
-C. Chiu, and C. -C. -C。 チウとcだ -C。 0.45
Huang, “Den: Disentangling and exchanging network for depth completion,” in International Conference on Pattern Recognition (ICPR), 2021, pp. 893–900. Huang, “Den: Disentangling and Exchangeing network for depth completion” in International Conference on Pattern Recognition (ICPR), 2021, pp. 893–900。
訳抜け防止モード: Huang, “Den: Disentangling and Exchangeing network for depth completion” 国際パターン認識会議(ICPR)2021年 893-900頁。
0.68
[112] X. Xiong, H. Xiong, K. Xian, C. Zhao, Z. Cao, and X. Li, “Sparseto-dense depth completion revisited: Sampling strategy and graph construction,” in European Conference on Computer Vision (ECCV), 2020. X. Xiong, H. Xiong, K. Xian, C. Zhao, Z. Cao, and X. Li, “Sparseto-dense depth completion revisited: Smpling strategy and graph construction” in European Conference on Computer Vision (ECCV) 2020. (英語) 0.45
[113] Y. Xu, X. Zhu, J. Shi, G. Zhang, H. Bao, and H. Li, “Depth completion from sparse lidar data with depth-normal constraints,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019, pp. 2811–2820. Y.Xu, X. Zhu, J. Shi, G. Zhang, H. Bao, and H. Liは,IEEE/CVF International Conference on Computer Vision (ICCV), 2019, pp. 2811–2820の講演で, “深度に制約のあるスパースライダーデータの深度完了” と述べている。 0.83
[114] Z. Xu, H. Yin, and J. Yao, “Deformable spatial propagation networks for depth completion,” in IEEE International Conference on Image Processing (ICIP), 2020, pp. 913–917. 914] Z. Xu, H. Yin, J. Yao, “Deformable spatial propagation network for depth completion” in IEEE International Conference on Image Processing (ICIP), 2020, pp. 913–917。
訳抜け防止モード: [114 ]Z.Xu、H.Yin、J.Yao IEEE International Conference on Image Processing (ICIP) における「深度補正のための変形可能な空間伝搬ネットワーク」 2020 , pp . 913–917 .
0.87
[115] L. Yan, K. Liu, and E. Belyaev, “Revisiting sparsity invariant convolution: A network for image guided depth completion,” IEEE Access, vol. 115] L. Yan, K. Liu, E. Belyaev, “Revisiting sparsity invariant convolution: A network for image guided depth completion”, IEEE Access, vol.
訳抜け防止モード: [115 ]L. Yan,K. Liu,E. Belyaev 「空間不変の畳み込みを再考する : 画像案内深度完了のためのネットワーク」 IEEE Access , vol。
0.78
8, pp. 126 323–126 332, 2020. 8, pp. 126 323–126 332, 2020. 0.50
[116] L. Yan, K. Liu, and L. Gao, “Dan-conv: Depth aware nonlocal convolution for lidar depth completion,” Electronics Letters, vol. L. Yan, K. Liu, and L. Gao, “Dan-conv: Depth aware nonlocal convolution for lidar depth completion”, Electronics Letters, vol。
訳抜け防止モード: [116 ]L. Yan、K. Liu、L. Gao 「Dan - conv : Depth aware nonlocal convolution for lidar depth completion」 Electronics Letters, vol。
0.76
57, no. 20, pp. 754–757, 2021. 57, no. 20, pp. 754-757, 2021。 0.95
[117] Z. Yan, K. Wang, X. Li, Z. Zhang, B. Xu, J. Li, and J. Yang, “Rignet: Repetitive image guided network for depth completion,” arXiv preprint arXiv:2107.13802, 2021. [117]Z. Yan, K. Wang, X. Li, Z. Zhang, B. Xu, J. Li, J. Yang, “Rignet: Repetitive image guideed network for depth completion” arXiv preprint arXiv:2107.13802, 2021
訳抜け防止モード: [117 ] z. yan, k. wang, x. li, z. zhang, b. xu, j. li, j. yang, " rignet : repetitive image guided network for depth completion" arxiv プレプリント arxiv:2107.13802 、2021 。
0.67
[118] X. Yang, W. Liu, D. Tao, and J. Cheng, “Canonical correlation analysis networks for two-view image recognition,” Information Sciences, vol. [118] x. yang, w. liu, d. tao, and j. cheng, “canonical correlation analysis networks for two-view image recognition”, information sciences, vol. ] (英語)
訳抜け防止モード: [118 ]X. Yang, W. Liu, D. Tao, J. Cheng 「2つのビュー画像認識のための標準相関解析ネットワーク」 情報科学専攻。
0.82
385, pp. 338–352, 2017. 385, pp. 338-352, 2017 頁。 0.76
[119] Y. Yang, A. Wong, and S. Soatto, “Dense depth posterior (ddp) from single image and sparse range,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 3353–3362. Y. Yang, A. Wong, and S. Soatto, “Dense depth Later (ddp) from single image and sparse range” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 3353–3362。
訳抜け防止モード: [119 ]Y. Yang, A. Wong, S. Soatto 「単一の画像から深度後部(ddp)まで」 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition ( CVPR ), 2019, pp. 3353–3362 。
0.72
[120] S. Yoon and A. Kim, “Balanced depth completion between dense depth inference and sparse range measurements via kiss-gp,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 10 468–10 475, 2020. ieee/rsj international conference on intelligent robots and systems (iros, pp. 10 468–10 475, 2020)。
訳抜け防止モード: [120 ]S.Yoon,A. Kim, “密度深度推論とキス-gpによるスパースレンジ測定のバランスのとれた深さ補完”。 IEEE / RSJ International Conference on Intelligent Robots and Systems (IROS) pp . 10 468–10 475 , 2020 .
0.84
[121] Z. You, Y. 121] z。 あなた y。 0.51
-H. Tsai, W. -h。 Tsai, W。 0.57
-C. Chiu, and G. Li, “Towards interpretable deep networks for monocular depth estimation,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021, pp. 12 879–12 888. -C。 chiu と g. li は、ieee/cvf international conference on computer vision, 2021, pp. 12 879–12 888 で "単眼深度推定のための解釈可能な深層ネットワーク" について論じている。
訳抜け防止モード: -C。 Chiu, and G. Li, “モノクル深度推定のための解釈可能なディープネットワークを目指して” In Proceedings of the IEEE / CVF International Conference on Computer Vision 2021 , pp . 12 879–12 888 .
0.63
[122] Q. Yu, L. Chu, Q. Wu, and L. Pei, “Grayscale and normal guided depth completion with a low-cost lidar,” in IEEE International Conference on Image Processing (ICIP), 2021, pp. 979–983. Q. Yu, L. Chu, Q. Wu, L. Pei, “Grayscale and normal guided depth completion with a low-cost lidar” in IEEE International Conference on Image Processing (ICIP), 2021, pp. 979–983。
訳抜け防止モード: [122 ] Q. Yu, L. Chu, Q. Wu, そしてL. Pei氏は,“グレースケールと通常のガイドド深度を,低コストのライダーで完成させる”。 IEEE International Conference on Image Processing (ICIP)、2021年。 979-983頁。
0.75
[123] C. Zhang, Y. Tang, C. Zhao, Q. Sun, Z. Ye, and J. Kurths, “Multitask gans for semantic segmentation and depth completion with cycle consistency,” IEEE Transactions on Neural Networks and Learning Systems, vol. IEEE Transactions on Neural Networks and Learning Systems, vol.[123] C. Zhang, Y. Tang, C. Zhao, Q. Sun, Z. Ye, J. Kurths, “Multitask gans for semantic segmentation and depth completion with cycle consistency”. IEEE Transactions on Neural Networks and Learning Systems. 0.44
32, no. 12, pp. 5404–5415, 2021. 32, No. 12, pp. 5404–5415, 2021。 0.48
[124] Y. Zhang, T. Nguyen, I. D. Miller, S. S. Shivakumar, S. Chen, C. J. Taylor, and V. Kumar, “Dfinenet: Ego-motion estimation and depth refinement from sparse, noisy depth input with rgb guidance,” arXiv preprint arXiv:1903.06397, 2019. Y.Zhang, T. Nguyen, I. D. Miller, S. S. Shivakumar, S. Chen, C. J. Taylor, V. Kumar, “Dfinenet: Ego-motion Estimation and depth refinement from sparse, noisy depth input with rgb guidance” arXiv preprint arXiv:1903.06397, 2019”。
訳抜け防止モード: [124 ] Y. Zhang, T. Nguyen, I. D. Miller, S. S. Shivakumar, S. Chen, C. J. Taylor, V. Kumar, “Dfinenet : Ego - Motion Estimation” rgb誘導によるスパースでノイズの多い深度入力による深度改善」 arXiv preprint arXiv:1903.06397, 2019。
0.83
[125] Y. Zhang and T. Funkhouser, “Deep depth completion of a single rgb-d image,” in Proceedings of the IEEE/CVF Conference Y. Zhang, T. Funkhouser, “Deep depth completion of a single rgb-d image” in Proceedings of the IEEE/CVF Conference
訳抜け防止モード: 125 ] y. zhang氏とt. funkhouser氏は、"単一のrgb - dイメージの奥行きの完了"を説明している。 ieee/cvf会議の議事録
0.50
英語(論文から抽出)日本語訳スコア
JOURNAL OF LATEX CLASS FILES, VOL. LATEX CLASS FILES, VOLの略。 0.65
14, NO. 8, MAY 2022 14 2022年5月8日 0.50
on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 175– 185. コンピュータビジョンとパターン認識 (CVPR) 2018, pp. 175–185。 0.73
[126] Y. Zhang, P. Wei, H. Li, and N. Zheng, “Multiscale adaptation fusion networks for depth completion,” in International Joint Conference on Neural Networks (IJCNN), 2020, pp. 1–7. 126] y. zhang, p. wei, h. li, n. zheng, "multiscale adaptation fusion networks for depth completion" in international joint conference on neural networks (ijcnn), 2020, pp. 1–7. (英語)
訳抜け防止モード: [126 ] Y. Zhang, P. Wei, H. Li, そしてN. Zheng氏は,“深度補完のためのマルチスケール適応核融合ネットワーク”だ。 International Joint Conference on Neural Networks (IJCNN) に参加して pp. 1-7。
0.82
[127] Y. Zhang, P. Wei, and N. Zheng, “A multi-cue guidance network for depth completion,” Neurocomputing, vol. 127] Y. Zhang, P. Wei, N. Zheng, “A multi-cue guidance network for depth completion”, Neurocomputing, vol.
訳抜け防止モード: [127 ] Y. Zhang, P. Wei, N. Zheng, ディープコンプリートのためのマルチキューガイダンスネットワーク”Neurocomputing, vol.
0.66
441, pp. 291–299, 2021. 441, pp. 291-299, 2021。 0.87
[128] Z. Zhang, X. Lu, G. Cao, Y. Yang, L. Jiao, and F. Liu, “Vit-yolo: Transformer-based yolo for object detection,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 2799–2808. Z. Zhang, X. Lu, G. Cao, Y. Yang, L. Jiao, F. Liu, “Vit-yolo: Transformer-based yolo for object detection” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 2799–2808。
訳抜け防止モード: [128 ] z. zhang, x. lu, g. cao, y. yang, l. jiao, f. liu, "vit - yolo : transformer - based yolo for object detection" ieee/cvf国際コンピュータビジョン会議(iccv)の開催にあたって 2021 , pp . 2799–2808 .
0.84
[129] S. Zhao, M. Gong, H. Fu, and D. Tao, “Adaptive context-aware multi-modal network for depth completion,” IEEE Transactions on Image Processing, vol. S. Zhao, M. Gong, H. Fu, D. Tao, “Adaptive context-aware multi-modal network for depth completion”, IEEE Transactions on Image Processing, vol。
訳抜け防止モード: [129 ]s. zhao, m. gong, h. fu, そしてd. tao氏, “adaptive context - aware multi- modal network for depth completion”。 ieeeは画像処理でトランザクションを処理します。
0.65
30, pp. 5264–5276, 2021. 30, pp. 5264–5276, 2021。 0.93
[130] Y. Zhong, C. [130] y. zhong, c. 0.41
-Y. Wu, S. You, and U. Neumann, “Deep rgb-d canonical correlation analysis for sparse depth completion,” in Advances in Neural Information Processing Systems, 2019, pp. 5332– 5342. -y。 Wu, S. You, U. Neumann, “Deep rgb-d canonical correlation analysis for sparse depth completion” in Advances in Neural Information Processing Systems, 2019, pp. 5332–5342。
訳抜け防止モード: -y。 wu, s. you, u. neumann, “deep rgb - d canonical correlation analysis for sparse depth completion” (英語) ニューラル・インフォメーション・プロセッシング・システムズ, 2019, pp. 5332 – 5342。
0.54
[131] Y. Zhu, W. Dong, L. Li, J. Wu, X. Li, and G. Shi, “Robust depth completion with uncertainty-driven loss functions,” in Proceedings of the AAAI Conference on Artificial Intelligence (AAAI), 2022. Y. Zhu, W. Dong, L. Li, J. Wu, X. Li, G. Shi, “Robust depth completion with uncertainty-driven loss function” in Proceedings of the AAAI Conference on Artificial Intelligence (AAAI) 2022。
訳抜け防止モード: [131 ]Y. Zhu, W. Dong, L. Li, J. Wu, X. Li, G. Shi は「不確実性を伴うロバスト深さ完備化 - 駆動損失関数」と述べている。 人工知能学会(AAAI)2022年に参加して
0.77
[132] B. Zoph, V. Vasudevan, J. Shlens, and Q. V. Le, “Learning transferable architectures for scalable image recognition,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 8697–8710. B. Zoph, V. Vasudevan, J. Shlens, Q. V. Le, “Learning transferable architectures for scalable image recognition” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 8697–8710。
訳抜け防止モード: [132 ] B. Zoph, V. Vasudevan, J. Shlens, スケーラブルな画像認識のためのトランスファー可能なアーキテクチャを学ぶ”Q.V. Le IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition ( CVPR ), 2018, pp. 8697–8710。
0.89
20 Chenyou Fan serves as Associate Profession of the School of Artificial Intelligence, South China Normal University, China. 20 チェンユー・ファン(chenyou fan)は、中国南シナ師範大学人工知能学部の准教授である。 0.52
He received the B.S. degree in computer science from the Nanjing University, China, in 2011, and the M.S. and Ph.D. degrees from Indiana University, USA, in 2014 and 2019, respectively. 2011年には南京大学からコンピュータ科学のB.S.学位、2014年にはインディアナ大学からM.S.とPh.D.の学位を取得した。 0.64
His research interests include machine learning and computer vision. 研究分野は機械学習とコンピュータビジョン。 0.61
He served in the program committee of CVPR, NeurIPS, ACM MM and top AI journals for more than 20 times. CVPR、NeurIPS、ACM MM、トップAIジャーナルのプログラム委員会に20回以上務めた。
訳抜け防止モード: CVPR、NeurIPS、ACM MMのプログラム委員会委員を務めた。 そして、トップAIジャーナルは20回以上も。
0.64
Qing Gao received his Ph.D. degree in the State Key Laboratory of Robotics, Shenyang Institute of Automation (SIA), Chinese Academy of Sciences (CAS), Shenyang, China, in 2020. Qing Gaoは、2020年に中国・清陽市にある中国科学アカデミー(CAS)のShnyang Institute of Automation(SIA)のState Key Laboratory of RoboticsでPh.D.を取得した。 0.85
He is currently a Research Scientist with the Shenzhen Institute of Artificial Intelligence and Robotics for Society. 現在は深セン人工知能・ロボティクス・フォー・ソサエティの深セン研究所の研究者である。 0.67
His research interests include robotics, artificial intelligence, machine vision and human–robot interaction. 彼の研究分野はロボット工学、人工知能、機械ビジョン、人間とロボットの相互作用である。 0.64
Junjie Hu (Member, IEEE) received the M.S. and Ph.D. degrees from the Graduate School of Information Science, Tohoku University, Sendai, Japan, in 2017 and 2020, respectively. 2017年(平成17年)と2020年(平成20年)に東北大学情報科学研究科から准教授(会員、ieee)がm.s.とph.d.を授与された。 0.52
He is currently a Research Scientist with the Shenzhen Institute of Artificial Intelligence and Robotics for Society. 現在は深セン人工知能・ロボティクス・フォー・ソサエティの深セン研究所の研究者である。 0.67
His research interests include machine learning, computer vision, and robotics. 研究分野は機械学習、コンピュータビジョン、ロボット工学。 0.59
Chenyu Bao received the B.Eng degree from the School of Mechanical Science and Engineering, HuaZhong University of Science and Technology in 2022. チェンユ・バオは2022年にホアソン科学技術大学機械工学科からb.engの学位を授与された。 0.64
He is currently a graduate student in the School of Science and Engineering, Chinese University of Hong Kong, Shenzhen. 現在は、香港の中国大学深セン校の理工学科の大学院生である。 0.52
His research interests include computer vision and robot perception. 研究分野はコンピュータビジョンとロボット認識。 0.59
Mete Ozay (M’09) received the B.Sc. Mete Ozay (M’09)はB.Scを受賞した。 0.73
, M.Sc. , Ph.D. degrees in mathematical physics, information systems, and computer engineering & science from METU, Turkey. M.S.。 トルコのMETUで数学物理学、情報システム、コンピュータ工学と科学の博士号を取得した。 0.65
He has been a visiting Ph.D. and fellow in the Princeton University, USA, a research fellow in the University of Birmingham, UK, and an Assistant Professor in the Tohoku University, Japan. アメリカ・プリンストン大学の客員教授、イギリス・バーミンガム大学の研究員、東北大学の助教授。
訳抜け防止モード: 彼はプリンストン大学の客員教授であり、フェローでもある。 英国バーミンガム大学の研究員、USA 東北大学助教授。
0.43
His current research interests include pure and applied mathematics, theoretical computer science & neuroscience. 現在の研究分野は純粋で応用的な数学、理論計算機科学と神経科学である。 0.63
Honghai Liu (Fellow, IEEE) received the Ph.D. degree in intelligent robotics from King’s College London, London, U.K., in 2003. 2003年、Honghai Liu (Fellow, IEEE) はキングス・カレッジ・ロンドンから知的ロボティクスの博士号を取得した。 0.65
He is a Professor with the Harbin Institute of Technology (Shenzhen), Shenzhen, China. 中国深センのハービン工科大学(深セン)の教授である。 0.49
He is also a Chair Professor of Human–Machine Systems with the University of Portsmouth, Portsmouth, U.K. His research interests include multi-sensory data fusion, pattern recognition, intelligent video analytics, intelligent robotics, and their practical applications. 彼はまた、ポーツマス大学ポーツマス校のヒューマン・マシン・システム(human-machine systems)の教授でもある。彼の研究分野は、マルチセンサーデータ融合、パターン認識、インテリジェントビデオ分析、インテリジェント・ロボティクス、そしてそれらの実用的応用である。 0.61
He is an Associate Editor of the IEEE Transactions on Industrial Electronics, the IEEE Transactions on Industrial Informatics, and the IEEE Transactions on Cybernetics. IEEE Transactions on Industrial Electronics、IEEE Transactions on Industrial Informatics、IEEE Transactions on Cyberneticsの副編集長である。
訳抜け防止モード: 彼はIEEE Transactions on Industrial Electronicsの副編集長である。 IEEE Transactions on Industrial InformaticsとIEEE Transactions on Cybernetics。
0.66
Tin Lun Lam (Senior Member, IEEE) serves as Assistant Professor of the Chinese University of Hong Kong, Shenzhen, and Director of Research Center on Intelligent Robots of Shenzhen Institute of Artificial Intelligence and Robotics for Society. tin lun lam(ieeeのシニアメンバー)は、深センの香港大学(英語版)の助教授であり、深セン人工知能・ロボティクス研究所(英語版)のインテリジェントロボット研究センター(英語版)の所長である。 0.68
He received his B.Eng. 彼はB.Engを受け取った。 0.56
Degree with First Class Honors and Ph.D. 第一級の名誉と博士号を持つ学位。 0.63
Degree in Robotics and Automation from the Chinese University of Hong Kong in 2006 and 2010, respectively. 2006年と2010年に香港大学からロボティクスとオートメーションの学位を授与された。 0.69
His research interests include multi-robot systems, field robotics and human-robot interaction. 彼の研究分野はマルチロボットシステム、フィールドロボティクス、人間とロボットの相互作用である。 0.63
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。