論文の概要: Unsupervised Cumulative Domain Adaptation for Foggy Scene Optical Flow
- arxiv url: http://arxiv.org/abs/2303.07564v2
- Date: Mon, 20 Mar 2023 13:28:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 22:50:46.027357
- Title: Unsupervised Cumulative Domain Adaptation for Foggy Scene Optical Flow
- Title(参考訳): 霧場光流に対する教師なし累積領域適応
- Authors: Hanyu Zhou, Yi Chang, Wending Yan, Luxin Yan
- Abstract要約: クリーン・ツー・フォッギー領域のギャップを埋めるために、既存の手法は通常、運動知識をクリーン・フォッジー領域から合成フォッジー領域に転送するためにドメイン適応を採用する。
本稿では,非教師付き累積領域適応光フローフレームワークを提案する。
この統合された枠組みの下で、提案された累積的適応は、クリーンなシーンから実際の霧のシーンへの知識の移行を徐々に進める。
- 参考スコア(独自算出の注目度): 19.640250999870307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow has achieved great success under clean scenes, but suffers from
restricted performance under foggy scenes. To bridge the clean-to-foggy domain
gap, the existing methods typically adopt the domain adaptation to transfer the
motion knowledge from clean to synthetic foggy domain. However, these methods
unexpectedly neglect the synthetic-to-real domain gap, and thus are erroneous
when applied to real-world scenes. To handle the practical optical flow under
real foggy scenes, in this work, we propose a novel unsupervised cumulative
domain adaptation optical flow (UCDA-Flow) framework: depth-association motion
adaptation and correlation-alignment motion adaptation. Specifically, we
discover that depth is a key ingredient to influence the optical flow: the
deeper depth, the inferior optical flow, which motivates us to design a
depth-association motion adaptation module to bridge the clean-to-foggy domain
gap. Moreover, we figure out that the cost volume correlation shares similar
distribution of the synthetic and real foggy images, which enlightens us to
devise a correlation-alignment motion adaptation module to distill motion
knowledge of the synthetic foggy domain to the real foggy domain. Note that
synthetic fog is designed as the intermediate domain. Under this unified
framework, the proposed cumulative adaptation progressively transfers knowledge
from clean scenes to real foggy scenes. Extensive experiments have been
performed to verify the superiority of the proposed method.
- Abstract(参考訳): 光の流れはきれいなシーンでは大きな成功を収めたが、霧のシーンでは限られたパフォーマンスに悩まされている。
クリーン・ツー・フォッギー領域のギャップを埋めるために、既存の手法は通常、運動知識をクリーンからシンセティック・フォッジー領域に転送するためにドメイン適応を採用する。
しかし、これらの手法は、合成と実のドメインギャップを予期せず無視し、現実のシーンに適用すると誤っている。
本研究は, 現実の霧の環境下での実用的な光の流れを扱うために, 深度連想型動き適応と相関配向型動き適応という, 教師なしの累積領域適応型光学フロー(UCDA-Flow)フレームワークを提案する。
具体的には, 深さが光学的流れに影響を与える重要な要素であること, 深い深さ, 低い光学的流れは, クリーン・ツー・フォギー領域のギャップを橋渡しするための深さ結合運動適応モジュールの設計を動機付ける。
さらに, 合成霧領域と実霧領域の運動知識を蒸留する相関調整型運動適応モジュールを考案し, 合成霧領域と実霧領域との類似の分布を, コスト容積相関が共有していることが判明した。
合成霧は中間領域として設計されていることに注意。
この統一された枠組みの下で、提案される累積的適応は、知識をクリーンなシーンから本物の霧のようなシーンへと段階的に転送する。
提案手法の優位性を検証するため, 大規模な実験を行った。
関連論文リスト
- Adverse Weather Optical Flow: Cumulative Homogeneous-Heterogeneous Adaptation [36.63698348549319]
実際の悪天候光流に対する累積均質不均一適応フレームワークを提案する。
具体的には, 静的気象は, シーンの内在的な動きを変化させることのない, 深度結合同質な特徴を有する。
合成-実遷移の場合、コストボリューム相関は、合成ドメインと実際の劣化ドメインの類似した統計ヒストグラムを共有することが判明した。
論文 参考訳(メタデータ) (2024-09-25T15:05:03Z) - Denoising as Adaptation: Noise-Space Domain Adaptation for Image Restoration [64.84134880709625]
拡散モデルを用いて,雑音空間を介して領域適応を行うことが可能であることを示す。
特に、補助的な条件入力が多段階の復調過程にどのように影響するかというユニークな性質を活用することにより、有意義な拡散損失を導出する。
拡散モデルにおけるチャネルシャッフル層や残留スワッピング型コントラスト学習などの重要な戦略を提案する。
論文 参考訳(メタデータ) (2024-06-26T17:40:30Z) - D2SL: Decouple Defogging and Semantic Learning for Foggy Domain-Adaptive Segmentation [0.8261182037130406]
そこで我々は,D2SLと呼ばれる新しい学習フレームワークD2SLを提案する。
本稿では,デファッギングタスクとセグメンテーションタスクの接続を確立するためのドメイン一貫性転送戦略を提案する。
実際の霧画像から霧の先行を十分に活用することにより、霧の消火効果を改善するために、実際の霧の移動戦略を設計する。
論文 参考訳(メタデータ) (2024-04-07T04:55:58Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Forward Flow for Novel View Synthesis of Dynamic Scenes [97.97012116793964]
本稿では,前向きワープを用いた動的シーンの新たなビュー合成のためのニューラルラジアンス場(NeRF)アプローチを提案する。
本手法は、新しいビューレンダリングとモーションモデリングの両方において、既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-09-29T16:51:06Z) - Unsupervised Hierarchical Domain Adaptation for Adverse Weather Optical
Flow [18.900658568158054]
階層的な動き境界適応による悪天候光流の非教師なしフレームワークを提案する。
我々の重要な洞察は、悪天候はシーンの内在的な光学的流れを変えるのではなく、清潔な画像と劣化した画像の間にワープ誤差を生じさせることである。
論文 参考訳(メタデータ) (2023-03-24T02:17:51Z) - Leveraging Scale-Invariance and Uncertainity with Self-Supervised Domain
Adaptation for Semantic Segmentation of Foggy Scenes [4.033107207078282]
FogAdaptは、密集した霧のシーンに対するセマンティックセグメンテーションのドメイン適応のための新しいアプローチである。
FogAdaptは、霧のイメージのセマンティックセグメンテーションにおいて、現在の最先端を著しく上回る。
論文 参考訳(メタデータ) (2022-01-07T18:29:58Z) - Both Style and Fog Matter: Cumulative Domain Adaptation for Semantic
Foggy Scene Understanding [63.99301797430936]
我々は,2要素(スタイルとフォグ)を累積的に適応させる新しいパイプラインを提案する。
具体的には、スタイルファクタとフォグファクタを分離し、異なる領域のイメージから二重要素を分離する統一的なフレームワークを考案する。
提案手法は,3つのベンチマーク上での最先端性能を実現し,雨や雪の場面における一般化能力を示す。
論文 参考訳(メタデータ) (2021-12-01T13:21:20Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。