論文の概要: Semi-Supervised Learning with Mutual Distillation for Monocular Depth
Estimation
- arxiv url: http://arxiv.org/abs/2203.09737v1
- Date: Fri, 18 Mar 2022 04:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 00:41:25.432897
- Title: Semi-Supervised Learning with Mutual Distillation for Monocular Depth
Estimation
- Title(参考訳): 単眼深度推定のための相互蒸留による半教師付き学習
- Authors: Jongbeom Baek, Gyeongnyeon Kim, and Seungryong Kim
- Abstract要約: それぞれの損失に対して異なる2つのネットワーク分岐を構築し, 相互蒸留損失関数を用いて相互蒸留を行う。
我々は,最新の手法によるフレームワークの有効性を実証する実験を行い,広範囲にわたるアブレーション研究を行った。
- 参考スコア(独自算出の注目度): 27.782150368174413
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a semi-supervised learning framework for monocular depth
estimation. Compared to existing semi-supervised learning methods, which
inherit limitations of both sparse supervised and unsupervised loss functions,
we achieve the complementary advantages of both loss functions, by building two
separate network branches for each loss and distilling each other through the
mutual distillation loss function. We also present to apply different data
augmentation to each branch, which improves the robustness. We conduct
experiments to demonstrate the effectiveness of our framework over the latest
methods and provide extensive ablation studies.
- Abstract(参考訳): 単眼深度推定のための半教師付き学習フレームワークを提案する。
従来の半教師付き学習法と比較して,各損失に対して2つのネットワーク分岐を構築し,相互蒸留損失関数を介して互いに蒸留することにより,損失関数の相補的優位性を実現する。
また,各ブランチに異なるデータ拡張を適用することにより,ロバスト性が向上することを示す。
我々は,最新の手法に対するフレームワークの有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
関連論文リスト
- Relaxed Contrastive Learning for Federated Learning [53.48804883845343]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Robust Contrastive Learning With Theory Guarantee [25.57187964518637]
コントラスト学習(CL)は,ラベル情報なしで意味のある特徴を抽出できる自己指導型学習パラダイムである。
我々の研究は厳密な理論を発展させ、教師なし損失のどの成分が教師なし損失の堅牢な改善に役立つかを識別する。
論文 参考訳(メタデータ) (2023-11-16T08:39:58Z) - Tuned Contrastive Learning [77.67209954169593]
そこで本研究では,TCL(Tuned Contrastive Learning)損失という,新たなコントラスト損失関数を提案する。
TCLはバッチ内の複数の正と負に一般化し、ハードな正とハードな負の勾配応答を調整および改善するためのパラメータを提供する。
我々は、TCLを自己教師付き設定に拡張する方法を示し、それを様々なSOTA自己教師型学習手法と経験的に比較する。
論文 参考訳(メタデータ) (2023-05-18T03:26:37Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Contrastive Bayesian Analysis for Deep Metric Learning [30.21464199249958]
特徴的類似性によって条件付けられた画像ラベルの後方確率を特徴付け,モデル化するために,コントラッシブなベイズ解析を開発した。
この対照的なベイズ解析は、深い計量学習のための新しい損失関数をもたらす。
実験結果とアブレーション実験により,提案手法は深層学習の性能を著しく向上させることが示された。
論文 参考訳(メタデータ) (2022-10-10T02:24:21Z) - Stain based contrastive co-training for histopathological image analysis [61.87751502143719]
本稿では,ヒストリボリューション画像の分類のための,新しい半教師付き学習手法を提案する。
我々は、半教師付き学習フレームワークを作成するために、パッチレベルのアノテーションと、新しいコトレーニング損失を併用した強力な監視を採用する。
透明細胞腎細胞および前立腺癌に対するアプローチを評価し,最先端の半教師あり学習法の改善を実証した。
論文 参考訳(メタデータ) (2022-06-24T22:25:31Z) - Deep Bregman Divergence for Contrastive Learning of Visual
Representations [4.994260049719745]
Deep Bregmanの発散は、ユークリッド距離を超えるニューラルネットワークを用いて、データポイントの発散を測定する。
我々は,機能的ブレグマンの発散に基づく追加ネットワークを訓練することにより,自己教師あり学習におけるコントラスト損失を高めることを目的としている。
論文 参考訳(メタデータ) (2021-09-15T17:44:40Z) - Unpaired Adversarial Learning for Single Image Deraining with Rain-Space
Contrastive Constraints [61.40893559933964]
我々は,CDR-GAN という名称の GAN フレームワークにおいて,比較学習手法により,経験者の相互特性を探索する有効な非経験的 SID 手法を開発した。
提案手法は, 合成および実世界の両方のデータセットにおいて, 既存の非対効果のデラミニング手法に対して良好に動作し, 完全教師付きモデルや半教師付きモデルよりも優れている。
論文 参考訳(メタデータ) (2021-09-07T10:00:45Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。