論文の概要: LIFE: Lighting Invariant Flow Estimation
- arxiv url: http://arxiv.org/abs/2104.03097v1
- Date: Wed, 7 Apr 2021 12:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 12:49:12.582648
- Title: LIFE: Lighting Invariant Flow Estimation
- Title(参考訳): ライフ:照明の不変流量推定
- Authors: Zhaoyang Huang, Xiaokun Pan, Runsen Xu, Yan Xu, Kachun Cheung, Guofeng
Zhang, Hongsheng Li
- Abstract要約: 照明変動が大きい2つの画像間の流れを推定する問題に対処する。
最近の学習ベースフロー推定フレームワークは、小さな変位と一定の照度を持つ画像対において顕著な性能を示している。
画像対間の正確な照明不変フローを推定するためのニューラルネットワークを訓練するための新しい弱監督フレームワークLIFEを提案する。
- 参考スコア(独自算出の注目度): 45.38438533973282
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We tackle the problem of estimating flow between two images with large
lighting variations. Recent learning-based flow estimation frameworks have
shown remarkable performance on image pairs with small displacement and
constant illuminations, but cannot work well on cases with large viewpoint
change and lighting variations because of the lack of pixel-wise flow
annotations for such cases. We observe that via the Structure-from-Motion (SfM)
techniques, one can easily estimate relative camera poses between image pairs
with large viewpoint change and lighting variations. We propose a novel weakly
supervised framework LIFE to train a neural network for estimating accurate
lighting-invariant flows between image pairs. Sparse correspondences are
conventionally established via feature matching with descriptors encoding local
image contents. However, local image contents are inevitably ambiguous and
error-prone during the cross-image feature matching process, which hinders
downstream tasks. We propose to guide feature matching with the flows predicted
by LIFE, which addresses the ambiguous matching by utilizing abundant context
information in the image pairs. We show that LIFE outperforms previous flow
learning frameworks by large margins in challenging scenarios, consistently
improves feature matching, and benefits downstream tasks.
- Abstract(参考訳): 照明変動が大きい2つの画像間の流れを推定する問題に取り組む。
近年の学習に基づくフロー推定フレームワークは,小さな変位と一定の照度を持つ画像ペアでは顕著な性能を示したが,画素単位のフローアノテーションの欠如により,大きな視点変化や照明変動ではうまく機能しない。
本研究では、SfM(Structure-from-Motion)技術を用いて、視点変化が大きい画像対と照明変動の相対的なカメラポーズを簡単に推定できることを観察する。
画像対間の正確な照明不変フローを推定するために,ニューラルネットワークを訓練するために,新しい弱教師付きフレームワークライフを提案する。
従来のスパース対応は、ローカル画像内容を符号化する記述子と特徴マッチングによって確立されている。
しかし、ローカル画像の内容は必然的に曖昧であり、下流タスクを妨げるクロスイメージ特徴マッチングプロセスにおいてエラーを起こしやすい。
本稿では,画像ペアの豊富なコンテキスト情報を利用することで,不明瞭なマッチングに対処し,ライフによって予測される流れに適合する特徴を導出する。
これまでのフロー学習フレームワークを、課題シナリオにおいて大きなマージンで上回り、機能マッチングを一貫して改善し、下流タスクのメリットを享受する。
関連論文リスト
- Fast Context-Based Low-Light Image Enhancement via Neural Implicit Representations [6.113035634680655]
現在のディープラーニングベースの低照度画像強調手法は高解像度画像としばしば競合する。
我々は、未露出画像の2次元座標を照明成分にマッピングすることで、拡張過程を再定義する、CoLIEと呼ばれる新しいアプローチを導入する。
論文 参考訳(メタデータ) (2024-07-17T11:51:52Z) - Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、3D表現学習を強化するために使用される。
VFMは、弱制御された画素間コントラスト蒸留のためのセマンティックラベルを生成する。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - XoFTR: Cross-modal Feature Matching Transformer [7.686047196317477]
熱赤外(TIR)と可視画像の局所的特徴マッチングのためのクロスモーダル・クロスビュー法
XTRoFにはマスク付き画像モデリングと擬似熱画像拡張による微調整が組み込まれている。
提案手法の有効性を検証するため,包括的可視熱的データセットを収集し,提案手法が多くのベンチマークにおいて既存手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-15T11:46:24Z) - DistractFlow: Improving Optical Flow Estimation via Realistic
Distractions and Pseudo-Labeling [49.46842536813477]
本稿では,光フロー推定モデルのトレーニングのための新しいデータ拡張手法であるDistractFlowを提案する。
2つのフレームのうちの1つを、類似したドメインを描写したイントラクタイメージと組み合わせることで、自然の物体やシーンと相反する視覚的摂動を誘発することができる。
私たちのアプローチでは、追加のアノテーションを必要とせずに、利用可能なトレーニングペアの数を大幅に増やすことができます。
論文 参考訳(メタデータ) (2023-03-24T15:42:54Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Low-Light Image Enhancement with Normalizing Flow [92.52290821418778]
本稿では,この一対多の関係を正規化フローモデルを用いてモデル化する。
低照度画像/特徴を条件として取り、通常露光される画像の分布をガウス分布にマッピングすることを学ぶ可逆ネットワーク。
既存のベンチマークデータセットによる実験結果から,提案手法はより定量的,質的な結果を得ることができ,照度が良く,ノイズやアーティファクトが小さく,色も豊かになることがわかった。
論文 参考訳(メタデータ) (2021-09-13T12:45:08Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Learned Camera Gain and Exposure Control for Improved Visual Feature
Detection and Matching [12.870196901446208]
我々は、環境照明の変化を考慮に入れたデータ駆動型アプローチを探求し、ビジュアル・オドメトリー(VO)や視覚同時像定位マッピング(SLAM)で使用する画像の品質を改善した。
我々は、カメラゲインと露出時間パラメータを予測的に調整するために、深層畳み込みニューラルネットワークモデルを訓練する。
我々は、我々のネットワークが劇的な照明変化を予想し、補うことができるような、広範囲な実世界の実験を通して実証する。
論文 参考訳(メタデータ) (2021-02-08T16:46:09Z) - Single Image Optical Flow Estimation with an Event Camera [38.92408855196647]
イベントカメラはバイオインスパイアされたセンサーで、マイクロ秒解像度の強度変化を報告している。
本稿では,単一画像(潜在的にぼやけた)とイベントに基づく光フロー推定手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T11:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。