論文の概要: CFDNet: A Generalizable Foggy Stereo Matching Network with Contrastive
Feature Distillation
- arxiv url: http://arxiv.org/abs/2402.18181v2
- Date: Thu, 29 Feb 2024 07:42:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 11:12:42.736765
- Title: CFDNet: A Generalizable Foggy Stereo Matching Network with Contrastive
Feature Distillation
- Title(参考訳): CFDNet: コントラスト特徴蒸留を用いた汎用的なFggy Stereo Matching Network
- Authors: Zihua Liu, Yizhou Li and Masatoshi Okutomi
- Abstract要約: コントラスト的特徴蒸留(CFD)に基づく枠組みを導入する。
この戦略は、統合されたクリーンフォグの特徴からの特徴蒸留と対照的な学習を組み合わせることで、霧の深さのヒントとクリーンマッチングの特徴へのバランスのとれた依存を確保する。
- 参考スコア(独自算出の注目度): 11.655465312241699
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Stereo matching under foggy scenes remains a challenging task since the
scattering effect degrades the visibility and results in less distinctive
features for dense correspondence matching. While some previous learning-based
methods integrated a physical scattering function for simultaneous
stereo-matching and dehazing, simply removing fog might not aid depth
estimation because the fog itself can provide crucial depth cues. In this work,
we introduce a framework based on contrastive feature distillation (CFD). This
strategy combines feature distillation from merged clean-fog features with
contrastive learning, ensuring balanced dependence on fog depth hints and clean
matching features. This framework helps to enhance model generalization across
both clean and foggy environments. Comprehensive experiments on synthetic and
real-world datasets affirm the superior strength and adaptability of our
method.
- Abstract(参考訳): 散乱効果は可視性を低下させ、密度の高い対応マッチングには特徴の少ない特徴をもたらすため、霧の場面下でのステレオマッチングは難しい課題である。
従来の学習に基づく手法では、物理散乱関数を統合してステレオマッチングとデハージングを行ったが、霧を除去するだけでは、霧自体が重要な深さの手がかりとなるため、深度推定には役立たない。
本稿では,cfd(con contrastive feature distillation)に基づくフレームワークについて紹介する。
この戦略は、統合されたクリーンフォグ機能からのフィーチャー蒸留と対照的な学習を組み合わせることで、霧の深さヒントとクリーンマッチング機能に対するバランスのとれた依存を確保する。
このフレームワークはクリーン環境と霧環境の両方でモデルの一般化を促進するのに役立つ。
合成および実世界のデータセットに関する総合実験により,本手法の優れた強度と適応性が確認された。
関連論文リスト
- Improving Apple Object Detection with Occlusion-Enhanced Distillation [1.0049237739132246]
自然環境で成長するリンゴは、しばしば葉や枝から激しい視覚障害に直面する。
OED(Occlusion-Enhanced Distillation)と呼ばれる手法を導入し、隠蔽データセット上の意味的に整合した特徴の学習を規則化する。
提案手法は, 広範囲な比較実験により, 最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2024-09-03T03:11:48Z) - ODCR: Orthogonal Decoupling Contrastive Regularization for Unpaired Image Dehazing [2.5944091779488123]
非関連画像デハジング(UID)は、背景が同一であるヘイズ/クラー画像のペアを取得することの難しさから、重要な研究課題となっている。
本稿では,直交デカップリングコントラスト正規化(ODCR)と呼ばれるUIDの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-27T08:13:13Z) - MaeFuse: Transferring Omni Features with Pretrained Masked Autoencoders for Infrared and Visible Image Fusion via Guided Training [57.18758272617101]
MaeFuseは、赤外線および可視画像融合(IVIF)用に設計された新しいオートエンコーダモデルである
提案モデルでは,MAE(Masked Autoencoders)の事前訓練エンコーダを用いて,低レベル再構成と高レベル視覚タスクのためのオムニ特徴抽出機能を備えている。
MaeFuseは、融合技術という領域で新しい視点を導入するだけでなく、様々な公開データセットで顕著なパフォーマンスで際立っている。
論文 参考訳(メタデータ) (2024-04-17T02:47:39Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Object-centric Cross-modal Feature Distillation for Event-based Object
Detection [87.50272918262361]
RGB検出器は、イベントデータのばらつきと視覚的詳細の欠如により、イベントベースの検出器よりも優れている。
これら2つのモード間の性能ギャップを縮めるための新しい知識蒸留手法を開発した。
対象中心蒸留により,イベントベースの学生物体検出装置の性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-11-09T16:33:08Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Structure Representation Network and Uncertainty Feedback Learning for
Dense Non-Uniform Fog Removal [64.77435210892041]
本研究では,不確実性フィードバック学習を用いた構造表現ネットワークを提案する。
具体的には、事前訓練された視覚変換器(DINO-ViT)モジュールから特徴表現を抽出し、背景情報を復元する。
大気中の光色を推定する難易度に対処するために,入力画像のグレースケール版を利用する。
論文 参考訳(メタデータ) (2022-10-06T17:10:57Z) - Nonlinear Intensity Underwater Sonar Image Matching Method Based on
Phase Information and Deep Convolution Features [6.759506053568929]
本稿では,位相情報と深部畳み込み特徴に基づく組み合わせマッチング手法を提案する。
1つは、深い畳み込みの特徴がソナー像の局所的および大域的位置の類似性を測定するのに使えることである。
論文 参考訳(メタデータ) (2021-11-29T02:36:49Z) - Blur-Attention: A boosting mechanism for non-uniform blurred image
restoration [27.075713246257596]
非一様ぼかし画像の特徴を動的に捉えるためのぼかしアテンションモジュールを提案する。
条件生成の逆方向のフレームワークにぼやけたアテンションネットワークを導入することにより、エンド・ツー・エンドのブラインド・モーション・デブロアリング法を提案する。
実験結果から,PSNR,SSIM,主観的視覚的品質の両面において,本手法の劣化能力は優れた客観的性能を示した。
論文 参考訳(メタデータ) (2020-08-19T16:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。