論文の概要: LightDepth: Single-View Depth Self-Supervision from Illumination Decline
- arxiv url: http://arxiv.org/abs/2308.10525v1
- Date: Mon, 21 Aug 2023 07:25:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 14:39:22.120796
- Title: LightDepth: Single-View Depth Self-Supervision from Illumination Decline
- Title(参考訳): lightdepth: 単視点深度の自己スーパービジョン
- Authors: Javier Rodr\'iguez-Puigvert, V\'ictor M. Batlle, J.M.M. Montiel, Ruben
Martinez Cantin, Pascal Fua, Juan D. Tard\'os, Javier Civera
- Abstract要約: 教師付きトレーニングに十分な地上深度データがあれば, 単視点深度推定は極めて効果的である。
そこで本研究では,教師付きケースと同様のパフォーマンスを実現する,シングルビューの自己監督手法を提案する。
我々の実験では、我々の自己監督モデルは、完全に教師されたモデルと同等の精度を提供する。
- 参考スコア(独自算出の注目度): 47.51233284602751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Single-view depth estimation can be remarkably effective if there is enough
ground-truth depth data for supervised training. However, there are scenarios,
especially in medicine in the case of endoscopies, where such data cannot be
obtained. In such cases, multi-view self-supervision and synthetic-to-real
transfer serve as alternative approaches, however, with a considerable
performance reduction in comparison to supervised case. Instead, we propose a
single-view self-supervised method that achieves a performance similar to the
supervised case. In some medical devices, such as endoscopes, the camera and
light sources are co-located at a small distance from the target surfaces.
Thus, we can exploit that, for any given albedo and surface orientation, pixel
brightness is inversely proportional to the square of the distance to the
surface, providing a strong single-view self-supervisory signal. In our
experiments, our self-supervised models deliver accuracies comparable to those
of fully supervised ones, while being applicable without depth ground-truth
data.
- Abstract(参考訳): 教師付きトレーニングに十分な地上深度データがあれば, 単視点深度推定は極めて効果的である。
しかし、特に内科の場合、そのようなデータが得られないシナリオがある。
このような場合、多視点の自己スーパービジョンと合成から現実への移動は代替のアプローチとして機能するが、教師付きの場合と比較してかなり性能が低下する。
代わりに,教師付きケースと同様の性能を実現するシングルビュー自己教師付き手法を提案する。
内視鏡などの医療機器では、カメラと光源はターゲット表面からわずかに離れた位置に配置されている。
したがって、任意のアルベドおよび表面方位に対して、画素の明るさは表面までの距離の2乗に逆比例し、強い単視点の自己スーパーバイザリー信号を与えることができる。
我々の実験では, 自己教師付きモデルでは, 完全な教師付きモデルに匹敵する精度を与えつつ, 奥行きの地中データを用いずに適用できる。
関連論文リスト
- Uncertainty and Self-Supervision in Single-View Depth [0.8158530638728501]
シングルビューの深さ推定は、単一のビューから3次元幾何学を説明する複数の解が存在するため、不適切な問題である。
ディープニューラルネットワークは単一の視点から深度を捉えるのに有効であることが示されているが、現在の方法論の大半は本質的に決定論的である。
我々はベイジアンディープニューラルネットワークにおける教師付き単一視点深度の不確かさを定量化することでこの問題に対処した。
論文 参考訳(メタデータ) (2024-06-20T11:46:17Z) - Leveraging Near-Field Lighting for Monocular Depth Estimation from Endoscopy Videos [12.497782583094281]
内視鏡ビデオにおける単眼深度推定は、補助手術やロボット手術により、臓器のより良いカバレッジと様々な健康問題の検出が可能になる。
主流の自然画像深度推定では有望な進歩があったが、内視鏡画像では技術が不十分であった。
本稿では, 内視鏡から放射される光を表面から反射する光学的手がかりを用いて, 単分子深度推定を改善する。
論文 参考訳(メタデータ) (2024-03-26T17:52:23Z) - DepthFM: Fast Monocular Depth Estimation with Flow Matching [22.206355073676082]
この問題に対する現在の差別的アプローチは、ぼやけた人工物のために限られている。
最先端の生成法は、SDEの性質上、サンプリングが遅い。
解空間を通した直線軌道は効率と高品質を提供するので,フローマッチングを用いて効果的にフレーム化することができる。
論文 参考訳(メタデータ) (2024-03-20T17:51:53Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - Linking data separation, visual separation, and classifier performance
using pseudo-labeling by contrastive learning [125.99533416395765]
最終分類器の性能は、潜在空間に存在するデータ分離と、射影に存在する視覚的分離に依存すると論じる。
本研究は,ヒト腸管寄生虫の5つの現実的課題の画像データセットを1%の教師付きサンプルで分類し,その結果を実証する。
論文 参考訳(メタデータ) (2023-02-06T10:01:38Z) - Self-Supervised Monocular Depth and Ego-Motion Estimation in Endoscopy:
Appearance Flow to the Rescue [38.168759071532676]
単眼ビデオから深度とエゴモーションを計算するために,自己教師付き学習技術が応用されている。
本研究では,明るさの不整合問題に対処するため,外観フローと呼ばれる新しい概念を導入する。
我々は,単眼深度と自我運動を同時に推定する統合的な自己監督フレームワークを構築した。
論文 参考訳(メタデータ) (2021-12-15T13:51:10Z) - EndoUDA: A modality independent segmentation approach for endoscopy
imaging [0.7874708385247353]
本稿では,変分オートエンコーダとU-Netを共通なEfficientNet-B4バックボーンに結合するUDAベースのセグメンテーション手法を提案する。
我々は,WLI(ソース)モードのみを用いてトレーニングした場合,NBI(ターゲット)モダリティを未確認のターゲットに一般化できることを示す。
論文 参考訳(メタデータ) (2021-07-12T11:57:33Z) - Occlusion-aware Unsupervised Learning of Depth from 4-D Light Fields [50.435129905215284]
4次元光場処理と解析のための教師なし学習に基づく深度推定法を提案する。
光場データの特異な幾何学構造に関する基礎知識に基づいて,光場ビューのサブセット間の角度コヒーレンスを探索し,深度マップを推定する。
提案手法は,従来の手法と同等の精度で計算コストを低減した深度マップを作成できる。
論文 参考訳(メタデータ) (2021-06-06T06:19:50Z) - Calibrating Self-supervised Monocular Depth Estimation [77.77696851397539]
近年、ニューラルネットワークが深度を学習し、画像のシーケンスに変化を起こさせる能力を示す方法は、訓練信号として自己スーパービジョンのみを使用している。
カメラの構成や環境に関する事前情報を取り入れることで,センサの追加に頼ることなく,自己教師型定式化を用いて,スケールのあいまいさを排除し,深度を直接予測できることを示す。
論文 参考訳(メタデータ) (2020-09-16T14:35:45Z) - Manifolds for Unsupervised Visual Anomaly Detection [79.22051549519989]
トレーニングで必ずしも異常に遭遇しない教師なしの学習方法は、非常に有用です。
ジャイロプレーン層を用いた立体投影による超球形変分オートエンコーダ(VAE)を開発した。
工業用AIシナリオにおける実世界の実用性を実証し、精密製造および検査における視覚異常ベンチマークの最先端結果を示す。
論文 参考訳(メタデータ) (2020-06-19T20:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。