論文の概要: Self-Supervised Generative Adversarial Network for Depth Estimation in
Laparoscopic Images
- arxiv url: http://arxiv.org/abs/2107.04644v1
- Date: Fri, 9 Jul 2021 19:40:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:01:33.824600
- Title: Self-Supervised Generative Adversarial Network for Depth Estimation in
Laparoscopic Images
- Title(参考訳): 腹腔鏡画像の深度推定のための自己監督型生成逆数ネットワーク
- Authors: Baoru Huang, Jianqing Zheng, Anh Nguyen, David Tuch, Kunal Vyas,
Stamatia Giannarou, Daniel S. Elson
- Abstract要約: 本稿では,ジェネレーティブ・ディバイサル・ネットワークに基づく自己教師型深度推定手法であるSADepthを提案する。
エンコーダデコーダジェネレータと、トレーニング中に幾何学的制約を組み込む識別器で構成される。
2つの公開データセットの実験により、SADepthは最新の最先端の教師なし手法よりも大きなマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 13.996932179049978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense depth estimation and 3D reconstruction of a surgical scene are crucial
steps in computer assisted surgery. Recent work has shown that depth estimation
from a stereo images pair could be solved with convolutional neural networks.
However, most recent depth estimation models were trained on datasets with
per-pixel ground truth. Such data is especially rare for laparoscopic imaging,
making it hard to apply supervised depth estimation to real surgical
applications. To overcome this limitation, we propose SADepth, a new
self-supervised depth estimation method based on Generative Adversarial
Networks. It consists of an encoder-decoder generator and a discriminator to
incorporate geometry constraints during training. Multi-scale outputs from the
generator help to solve the local minima caused by the photometric reprojection
loss, while the adversarial learning improves the framework generation quality.
Extensive experiments on two public datasets show that SADepth outperforms
recent state-of-the-art unsupervised methods by a large margin, and reduces the
gap between supervised and unsupervised depth estimation in laparoscopic
images.
- Abstract(参考訳): 手術シーンの深度推定と3次元再構成は,コンピュータ支援手術における重要なステップである。
近年の研究では、畳み込みニューラルネットワークによってステレオ画像ペアから深度を推定できることが示されている。
しかし、最近の深度推定モデルは、ピクセル単位の基底真理を持つデータセットで訓練された。
このようなデータは腹腔鏡画像では特に稀であり、実際の外科的応用に教師付き深度推定を適用することは困難である。
この制限を克服するために,生成逆ネットワークに基づく自己教師型深度推定手法であるSADepthを提案する。
エンコーダデコーダジェネレータと、トレーニング中に幾何学的制約を組み込む識別器で構成される。
生成装置からのマルチスケール出力は、光度再投射損失による局所的なミニマを解くのに役立ち、対向学習はフレームワーク生成品質を改善する。
2つの公開データセットに対する大規模な実験により、SADepthは最新の最先端の教師なし手法を大きなマージンで上回り、腹腔鏡画像における教師なしと教師なしの深さ推定のギャップを減らしている。
関連論文リスト
- AugUndo: Scaling Up Augmentations for Unsupervised Depth Completion [54.1925051672779]
そこで本稿では,教師なし深度補完のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を逆転、あるいは「非」入力し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Robot Localization and Mapping Final Report -- Sequential Adversarial
Learning for Self-Supervised Deep Visual Odometry [2.512491726995032]
VO(Visual odometry)とSLAM(SLAM)は、何十年にもわたって動きから局所的な構造を通して多視点幾何を用いてきた。
高レベルの特徴を抽出するディープニューラルネットワークは、コンピュータビジョンにおいてユビキタスである。
この研究の目標は、過去のアプローチのこれらの制限に対処し、より良い深さを提供し、見積もりを示す方法を開発することである。
論文 参考訳(メタデータ) (2023-09-08T06:24:17Z) - EndoDepthL: Lightweight Endoscopic Monocular Depth Estimation with
CNN-Transformer [0.0]
我々は,CNNとTransformerを統合してマルチスケール深度マップを推定する,EndoDepthLという新しい軽量ソリューションを提案する。
提案手法は,ネットワークアーキテクチャの最適化,マルチスケール拡張畳み込み,マルチチャネルアテンション機構の導入を含む。
内視鏡画像における単眼深度推定の性能をよりよく評価するために,新しい複雑性評価指標を提案する。
論文 参考訳(メタデータ) (2023-08-04T21:38:29Z) - Geometry-Aware Attenuation Field Learning for Sparse-View CBCT
Reconstruction [61.48254686722434]
Cone Beam Computed Tomography (CBCT) は歯科医療において最も広く用いられている画像診断法である。
Sparse-view CBCT 再建は放射線線量削減に重点を置いている。
本稿では,マルチビューX線プロジェクションからボリューム特徴を初めて符号化することで,新しい減衰場エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - 3D endoscopic depth estimation using 3D surface-aware constraints [16.161276518580262]
深度推定は3次元表面から行うことができることを示す。
本研究では,表面認識制約を統合した深度推定のための損失関数を提案する。
カメラパラメータは、深さ推定の制御と透明性を高めるために、トレーニングパイプラインに組み込まれる。
論文 参考訳(メタデータ) (2022-03-04T04:47:20Z) - Depth Estimation from Single-shot Monocular Endoscope Image Using Image
Domain Adaptation And Edge-Aware Depth Estimation [1.7086737326992167]
領域適応によるランベルト面の変換とマルチスケールエッジロスを用いた深度推定による単眼単眼単眼内視鏡像からの深度推定法を提案する。
臓器の表面のテクスチャと特異反射により、深さ推定の精度が低下する。
本研究では,畳み込みニューラルネットワークを用いた大腸内視鏡像の解剖学的位置同定に,推定深度画像を適用した。
論文 参考訳(メタデータ) (2022-01-12T14:06:54Z) - Adversarial Domain Feature Adaptation for Bronchoscopic Depth Estimation [111.89519571205778]
そこで本研究では,深度推定のためのドメイン適応手法を提案する。
提案する2段階構造は,まず,ラベル付き合成画像を用いた深度推定ネットワークを教師付きで訓練する。
実験の結果,提案手法は実画像上でのネットワーク性能をかなりの差で向上させることがわかった。
論文 参考訳(メタデータ) (2021-09-24T08:11:34Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。