論文の概要: Relative Depth Estimation as a Ranking Problem
- arxiv url: http://arxiv.org/abs/2010.06944v1
- Date: Wed, 14 Oct 2020 10:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:36:48.907478
- Title: Relative Depth Estimation as a Ranking Problem
- Title(参考訳): ランキング問題としての相対的深さ推定
- Authors: Alican Mertan, Damien Jade Duff, Gozde Unal
- Abstract要約: 本稿では,1つの画像問題からの相対深度推定をランキング問題として定式化する。
我々は、相対的な深さ推定問題に対して、ランキング文献である重み付きListMLEから借用したリストワイズランキングの損失を導入した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a formulation of the relative depth estimation from a single image
problem, as a ranking problem. By reformulating the problem this way, we were
able to utilize literature on the ranking problem, and apply the existing
knowledge to achieve better results. To this end, we have introduced a listwise
ranking loss borrowed from ranking literature, weighted ListMLE, to the
relative depth estimation problem. We have also brought a new metric which
considers pixel depth ranking accuracy, on which our method is stronger.
- Abstract(参考訳): 本稿では,1つの画像問題からの相対深度推定をランキング問題として定式化する。
この方法で問題を再構成することで、ランキング問題に文献を活用し、既存の知識を適用してより良い結果を得ることができた。
そこで我々は,相対的な深度推定問題に対して,ランキング文献である重み付きListMLEから借用したリストワイズランキングの損失を導入した。
また,提案手法の精度を高めるために,画素深度のランク付け精度を考慮した新しい測定基準も導入した。
関連論文リスト
- Rank Aggregation in Crowdsourcing for Listwise Annotations [37.0231203825557]
クラウドソーシングにおけるリストワイド・アグリゲーション手法を提案する。
本設計では,特にアノテーションの品質指標を用いて,注釈付きランクと真のランクとの差を計測する。
また,アノテータの性能に直接影響を与えるため,ランキング問題自体の難しさも考慮に入れている。
論文 参考訳(メタデータ) (2024-10-10T02:13:21Z) - Depth-aware Volume Attention for Texture-less Stereo Matching [67.46404479356896]
実用的な屋外シナリオにおけるテクスチャ劣化に対処する軽量なボリューム改善手法を提案する。
画像テクスチャの相対的階層を抽出し,地中深度マップによって教師される深度体積を導入する。
局所的な微細構造と文脈は、体積凝集時のあいまいさと冗長性を緩和するために強調される。
論文 参考訳(メタデータ) (2024-02-14T04:07:44Z) - Depth Refinement for Improved Stereo Reconstruction [13.941756438712382]
立体画像からの深度推定の現在の技術は、なおも内蔵の欠点に悩まされている。
簡単な解析により、深度誤差は物体の距離に2乗比例することが明らかになった。
本研究では,深度推定に改良ネットワークを用いた簡易かつ効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-12-15T12:21:08Z) - Robust Depth Completion with Uncertainty-Driven Loss Functions [60.9237639890582]
本研究では,不確実性による損失関数を導入し,深度補修の堅牢性を改善し,深度補修の不確実性に対処する。
提案手法は,KITTI深度評価ベンチマークでテストされ,MAE, IMAE, IRMSEの計測値を用いて最先端のロバスト性性能を達成した。
論文 参考訳(メタデータ) (2021-12-15T05:22:34Z) - Towards Unpaired Depth Enhancement and Super-Resolution in the Wild [121.96527719530305]
最先端のデータ駆動による深度マップの超解像法は、同じシーンの低解像度と高解像度の深度マップの登録ペアに依存している。
未経験データからの学習に基づく深度マップの強化について考察する。
論文 参考訳(メタデータ) (2021-05-25T16:19:16Z) - Depth Completion using Plane-Residual Representation [84.63079529738924]
深度情報を最も近い深度平面ラベル$p$と残値$r$で解釈する新しい方法を紹介し,これをPlane-Residual (PR)表現と呼ぶ。
PR表現で深度情報を解釈し,それに対応する深度補完網を用いて,高速な計算により深度補完性能を向上させることができた。
論文 参考訳(メタデータ) (2021-04-15T10:17:53Z) - Direct Depth Learning Network for Stereo Matching [79.3665881702387]
ステレオマッチングのための新しいダイレクトディープス学習ネットワーク(DDL-Net)が設計されている。
DDL-Netは、粗度推定段階と適応勾配深度補正段階の2段階からなる。
我々は,DDL-NetがSceneFlowデータセットで25%,DrivingStereoデータセットで12%の平均的な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-12-10T10:33:57Z) - Deep Multi-view Depth Estimation with Predicted Uncertainty [11.012201499666503]
我々は、高密度光フローネットワークを用いて対応を計算し、点雲を三角測量して初期深度マップを得る。
三角測量の精度をさらに高めるため,画像の文脈に基づく初期深度マップを最適化する深度補正ネットワーク(DRN)を導入する。
論文 参考訳(メタデータ) (2020-11-19T00:22:09Z) - Monocular Depth Estimation via Listwise Ranking using the Plackett-Luce
Model [15.472533971305367]
多くの実世界のアプリケーションでは、画像内の物体の相対的な深さがシーン理解に不可欠である。
近年のアプローチでは, この問題を回帰課題として扱うことにより, 単眼画像の深度予測の問題に対処している。
しかし、ランク付け手法は回帰の自然な代替として自らを示唆しており、実際、ペア比較を利用したランク付け手法はこの問題に対して有望な性能を示している。
論文 参考訳(メタデータ) (2020-10-25T13:40:10Z) - A New Distributional Ranking Loss With Uncertainty: Illustrated in
Relative Depth Estimation [0.0]
単一画像からの相対深度推定問題に対する新しいアプローチを提案する。
奥行きスコアを直接回帰する代わりに、この問題を深さを超える確率分布の推定として定式化する。
本モデルでは,より近い画素の深さよりも近い画素の深さの確率を高めるために,新たなランキング損失である分布損失を提案する。
論文 参考訳(メタデータ) (2020-10-14T13:47:18Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。