論文の概要: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow
- arxiv url: http://arxiv.org/abs/2204.00330v1
- Date: Fri, 1 Apr 2022 10:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 14:41:16.286418
- Title: DIP: Deep Inverse Patchmatch for High-Resolution Optical Flow
- Title(参考訳): DIP:高分解能光流のための深部逆パッチマッチ
- Authors: Zihua Zheng, Ni Nie, Zhi Ling, Pengfei Xiong, Jiangyu Liu, Hao Wang,
Jiankun Li
- Abstract要約: 本稿では,高分解能光フロー推定のための新しいPatchmatchベースのフレームワークを提案する。
伝播とPatchmatchの局所探索の恩恵を受け、低メモリで高精度な結果が得られる。
提案手法は,KITTI2015ベンチマークのすべての指標で第1位,Sintelクリーンベンチマークでは第2位である。
- 参考スコア(独自算出の注目度): 7.73554718719193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the dense correlation volume method achieves state-of-the-art
performance in optical flow. However, the correlation volume computation
requires a lot of memory, which makes prediction difficult on high-resolution
images. In this paper, we propose a novel Patchmatch-based framework to work on
high-resolution optical flow estimation. Specifically, we introduce the first
end-to-end Patchmatch based deep learning optical flow. It can get
high-precision results with lower memory benefiting from propagation and local
search of Patchmatch. Furthermore, a new inverse propagation is proposed to
decouple the complex operations of propagation, which can significantly reduce
calculations in multiple iterations. At the time of submission, our method
ranks first on all the metrics on the popular KITTI2015 benchmark, and ranks
second on EPE on the Sintel clean benchmark among published optical flow
methods. Experiment shows our method has a strong cross-dataset generalization
ability that the F1-all achieves 13.73%, reducing 21% from the best published
result 17.4% on KITTI2015. What's more, our method shows a good details
preserving result on the high-resolution dataset DAVIS and consumes 2x less
memory than RAFT.
- Abstract(参考訳): 近年, 高密度相関体積法が光流れの最先端性能を実現する。
しかし相関ボリューム計算には大量のメモリを必要とするため,高解像度画像では予測が困難となる。
本稿では,高分解能光フロー推定のための新しいPatchmatchベースのフレームワークを提案する。
具体的には、最初のエンドツーエンドのPatchmatchベースのディープラーニング光学フローを紹介する。
伝播とPatchmatchの局所探索の恩恵を受け、低メモリで高精度な結果が得られる。
さらに、複数の繰り返しの計算を著しく削減できる複雑な伝搬操作を分離するために、新しい逆伝播法を提案する。
提案時点では,提案手法はkitti2015ベンチマークのすべての指標で第1位であり,sintel cleanベンチマークではepeで第2位である。
実験の結果,F1-allが13.73%を達成し,KITTI2015の17.4%から21%の削減を実現した。
さらに,本手法では,高分解能データセットDAVISの保存結果をよく示し,RAFTよりも2倍少ないメモリを消費する。
関連論文リスト
- ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - Efficient Diffusion as Low Light Enhancer [63.789138528062225]
RATR(Reflectance-Aware Trajectory Refinement)は、イメージの反射成分を用いて教師の軌跡を洗練するための、シンプルで効果的なモジュールである。
textbfReDDiT (textbfDistilled textbfTrajectory) は低照度画像強調(LLIE)に適した効率的で柔軟な蒸留フレームワークである。
論文 参考訳(メタデータ) (2024-10-16T08:07:18Z) - HMAFlow: Learning More Accurate Optical Flow via Hierarchical Motion Field Alignment [0.5825410941577593]
本稿では,挑戦シーンにおける光学的フロー推定を改善するために,HMAFlowと呼ばれる新しい手法を提案する。
提案モデルは主に,階層型運動場アライメント(HMA)モジュールと相関自己認識(CSA)モジュールの2つのコアコンポーネントから構成される。
実験により,本モデルが他の最先端手法と比較して最高の一般化性能を達成できることが実証された。
論文 参考訳(メタデータ) (2024-09-09T11:43:35Z) - Rethinking Optical Flow from Geometric Matching Consistent Perspective [38.014569953980754]
本稿では,従来の光流量推定法について再考する。
我々は,より優れた特徴表現を持つ光フロー推定(MatchFlow)のための事前学習タスクとして,GIMを使用している。
Sintel クリーンパスと KITTI テストセットの GMA から 11.5% と 10.1% の誤差削減を実現した。
論文 参考訳(メタデータ) (2023-03-15T06:00:38Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - UPFlow: Upsampling Pyramid for Unsupervised Optical Flow Learning [34.580309867067946]
光フロー推定のための教師なし学習手法を提案する。
我々は,ピラミッド間の双線形アップサンプリングによるぼやけた問題に対処するために,自己誘導型アップサンプルモジュールを設計する。
本研究では, 微粒な流動を擬似ラベルとして蒸留することにより, 中間層を監督するピラミッド蒸留損失を提案する。
論文 参考訳(メタデータ) (2020-12-01T01:57:46Z) - ScopeFlow: Dynamic Scene Scoping for Optical Flow [94.42139459221784]
我々は,光流の一般的なトレーニングプロトコルを変更することを提案する。
この改善は、挑戦的なデータをサンプリングする際のバイアスを観察することに基づいている。
トレーニングプロトコルでは,正規化と拡張の双方が減少することが判明した。
論文 参考訳(メタデータ) (2020-02-25T09:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。