論文の概要: Semi-supervised Deep Multi-view Stereo
- arxiv url: http://arxiv.org/abs/2207.11699v1
- Date: Sun, 24 Jul 2022 09:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:23:20.902162
- Title: Semi-supervised Deep Multi-view Stereo
- Title(参考訳): 半教師付きディープマルチビューステレオ
- Authors: Hongbin Xu, Zhipeng Zhou, Weitao Cheng, Baigui Sun, Hao Li, Wenxiong
Kang
- Abstract要約: 本稿では,MVSデータのごく一部のみに深層地盤の真理を付加した,学習に基づくMVS問題の半教師付き設定について検討する。
本稿では,SE-MVS という,新しい半教師付き MVS フレームワークを提案する。
バックボーンネットワークと同じ設定で,提案するSE-MVSは,完全に教師付きで教師なしのベースラインよりも優れている。
- 参考スコア(独自算出の注目度): 26.56703228290803
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Significant progress has been witnessed in learning-based Multi-view Stereo
(MVS) of supervised and unsupervised settings. To combine their respective
merits in accuracy and completeness, meantime reducing the demand for expensive
labeled data, this paper explores a novel semi-supervised setting of
learning-based MVS problem that only a tiny part of the MVS data is attached
with dense depth ground truth. However, due to huge variation of scenarios and
flexible setting in views, semi-supervised MVS problem (Semi-MVS) may break the
basic assumption in classic semi-supervised learning, that unlabeled data and
labeled data share the same label space and data distribution. To handle these
issues, we propose a novel semi-supervised MVS framework, namely SE-MVS. For
the simple case that the basic assumption works in MVS data, consistency
regularization encourages the model predictions to be consistent between
original sample and randomly augmented sample via constraints on KL divergence.
For further troublesome case that the basic assumption is conflicted in MVS
data, we propose a novel style consistency loss to alleviate the negative
effect caused by the distribution gap. The visual style of unlabeled sample is
transferred to labeled sample to shrink the gap, and the model prediction of
generated sample is further supervised with the label in original labeled
sample. The experimental results on DTU, BlendedMVS, GTA-SFM, and
Tanks\&Temples datasets show the superior performance of the proposed method.
With the same settings in backbone network, our proposed SE-MVS outperforms its
fully-supervised and unsupervised baselines.
- Abstract(参考訳): 教師なしおよび教師なしの設定の学習ベースのマルチビューステレオ(MVS)において、重要な進歩が見られた。
そこで本研究では,MVSデータのごく一部に深層地盤真理を付加した学習ベースMVS問題の,新たな半教師付き設定について検討する。
しかし、シナリオの多様さと視点の柔軟な設定により、半教師付きMSV問題(Semi-MVS)は、ラベルなしデータとラベル付きデータが同じラベル空間とデータ分布を共有するという古典的な半教師付き学習の基本的な前提を破る可能性がある。
これらの問題に対処するため、我々はSE-MVSと呼ばれる新しい半教師付きMVSフレームワークを提案する。
MVSデータに基本的な仮定が作用する単純な場合において、一貫性の正則化は、KLの発散に関する制約により、元のサンプルとランダムに増分されたサンプルとの整合性をモデル予測に促す。
さらに,mvsデータに基本仮定が矛盾する場合には,分布ギャップに起因する負の効果を緩和する新しいスタイルの一貫性損失を提案する。
ラベル付けされていないサンプルの視覚的スタイルをラベル付きサンプルに転送してギャップを小さくし、生成されたサンプルのモデル予測をさらにラベル付きサンプルで監督する。
DTU, BlendedMVS, GTA-SFM, Tanks\&Temples を用いた実験結果から,提案手法の優れた性能を示した。
バックボーンネットワークと同じ設定で,提案するSE-MVSは,完全に教師付きで教師なしのベースラインよりも優れている。
関連論文リスト
- ProbVLM: Probabilistic Adapter for Frozen Vision-Language Models [69.50316788263433]
本稿では,事前学習された視覚言語モデルの埋め込みに対する確率分布を推定する確率的アダプタProbVLMを提案する。
本稿では,検索タスクにおける不確実性埋め込みのキャリブレーションを定量化し,ProbVLMが他の手法よりも優れていることを示す。
本稿では,大規模な事前学習型潜伏拡散モデルを用いて,埋め込み分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T18:16:06Z) - Semi-Supervised Learning for hyperspectral images by non parametrically
predicting view assignment [25.198550162904713]
ハイパースペクトル画像(HSI)分類は、画像中のスペクトル情報が高いため、現在、多くの勢いを増している。
近年,ラベル付きサンプルを最小限に抑えたディープラーニングモデルを効果的に訓練するために,ラベル付きサンプルも自己教師付きおよび半教師付き設定で活用されている。
本研究では,半教師付き学習の概念を利用して,モデルの識別的自己教師型事前学習を支援する。
論文 参考訳(メタデータ) (2023-06-19T14:13:56Z) - Flexible Distribution Alignment: Towards Long-tailed Semi-supervised Learning with Proper Calibration [18.376601653387315]
Longtailed semi-supervised learning (LTSSL)は、半教師付きアプリケーションのための実践的なシナリオである。
この問題は、ラベル付きとラベルなしのクラス分布の相違によってしばしば悪化する。
本稿では,新しい適応ロジット調整型損失フレームワークFlexDAを紹介する。
論文 参考訳(メタデータ) (2023-06-07T17:50:59Z) - Deep Incomplete Multi-view Clustering with Cross-view Partial Sample and
Prototype Alignment [50.82982601256481]
深層不完全なマルチビュークラスタリングのためのクロスビュー部分サンプルとプロトタイプアライメントネットワーク(CPSPAN)を提案する。
従来のコントラストベースの手法とは異なり、インスタンスとインスタンスの対応構築を導くために、ペア観測データアライメントを「プロキシ監視信号」として採用する。
論文 参考訳(メタデータ) (2023-03-28T02:31:57Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Gray Learning from Non-IID Data with Out-of-distribution Samples [45.788789553551176]
専門家が注釈を付けたとしても、トレーニングデータの完全性は保証されていない。
我々は,基本真実と相補的ラベルを両立させる新しいアプローチであるtextitGray Learningを導入する。
統計学習理論における我々のアプローチを基礎として、一般化誤差の境界を導出し、GLが非IID設定でも厳密な制約を達成できることを実証する。
論文 参考訳(メタデータ) (2022-06-19T10:46:38Z) - Towards Calibrated Model for Long-Tailed Visual Recognition from Prior
Perspective [17.733087434470907]
実世界のデータは、深刻な階級不均衡問題に直面し、長い尾の分布を示す。
本稿では,このジレンマを緩和する2つの新しい手法を提案する。
まず、UniMix(UniMix)と呼ばれるバランス指向データ拡張を推定し、長期のシナリオでミキサアップを促進する。
第二に、ベイズ理論に動機づけられたベイズバイアス(ベイアズ)は、標準的なクロスエントロピー損失の修正としてそれを補償する。
論文 参考訳(メタデータ) (2021-11-06T12:53:34Z) - Training image classifiers using Semi-Weak Label Data [26.04162590798731]
多重インスタンス学習(MIL)では、弱ラベルがバッグレベルで提供され、存在/存在情報のみが知られる。
本稿では,この問題を軽減するため,新たな半弱ラベル学習パラダイムを提案する。
半弱ラベルから学習する問題に対処する2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-19T03:06:07Z) - Learning to Match Distributions for Domain Adaptation [116.14838935146004]
本稿では,ドメイン間分布マッチングを自動的に学習する学習 to Match (L2M)を提案する。
L2Mは、メタネットワークを用いてデータ駆動方式で分布整合損失を学習することにより、誘導バイアスを低減する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
論文 参考訳(メタデータ) (2020-07-17T03:26:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。