論文の概要: Multi-Scale RAFT: Combining Hierarchical Concepts for Learning-based
Optical FLow Estimation
- arxiv url: http://arxiv.org/abs/2207.12163v1
- Date: Mon, 25 Jul 2022 13:03:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:00:41.958413
- Title: Multi-Scale RAFT: Combining Hierarchical Concepts for Learning-based
Optical FLow Estimation
- Title(参考訳): マルチスケールRAFT:学習型光フラウ推定のための階層的概念の組み合わせ
- Authors: Azin Jahedi, Lukas Mehl, Marc Rivinius, Andr\'es Bruhn
- Abstract要約: 単一推定フレームワーク内に複数の階層的概念を組み合わせた,新しいマルチスケールニューラルネットワークを提案する。
これらの概念には、 (i) 部分的に共有された粗大なアーキテクチャ、 (ii) マルチスケールの特徴、 (iii) 階層的なコストボリューム、 (iv) マルチスケールのマルチイテレーション損失が含まれる。
- 参考スコア(独自算出の注目度): 0.6882042556551611
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many classical and learning-based optical flow methods rely on hierarchical
concepts to improve both accuracy and robustness. However, one of the currently
most successful approaches -- RAFT -- hardly exploits such concepts. In this
work, we show that multi-scale ideas are still valuable. More precisely, using
RAFT as a baseline, we propose a novel multi-scale neural network that combines
several hierarchical concepts within a single estimation framework. These
concepts include (i) a partially shared coarse-to-fine architecture, (ii)
multi-scale features, (iii) a hierarchical cost volume and (iv) a multi-scale
multi-iteration loss. Experiments on MPI Sintel and KITTI clearly demonstrate
the benefits of our approach. They show not only substantial improvements
compared to RAFT, but also state-of-the-art results -- in particular in
non-occluded regions. Code will be available at
https://github.com/cv-stuttgart/MS_RAFT.
- Abstract(参考訳): 多くの古典的および学習的光学フロー法は、精度と堅牢性の両方を改善するために階層的概念に依存している。
しかし、現在最も成功したアプローチの1つ、RAFTは、そのような概念をほとんど利用していない。
本稿では,マルチスケールなアイデアが依然として有用であることを示す。
より正確には、RAFTをベースラインとして、単一推定フレームワーク内に複数の階層的概念を組み合わせた新しいマルチスケールニューラルネットワークを提案する。
これらの概念には
(i)部分的に共有された粗雑な建築
(ii)マルチスケール機能
(iii)階層的なコストボリュームと
(iv)マルチスケールマルチイテレーション損失。
MPIシンテルとKITTIの実験は、我々のアプローチの利点を明確に示している。
RAFTに比べて大幅に改善されているだけでなく、特に非閉塞領域における最先端の結果も示している。
コードはhttps://github.com/cv-stuttgart/MS_RAFT.comから入手できる。
関連論文リスト
- High-Performance Few-Shot Segmentation with Foundation Models: An Empirical Study [64.06777376676513]
基礎モデルに基づく数ショットセグメンテーション(FSS)フレームワークを開発した。
具体的には、基礎モデルから暗黙的な知識を抽出し、粗い対応を構築するための簡単なアプローチを提案する。
2つの広く使われているデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-10T08:04:11Z) - Deep Dependency Networks and Advanced Inference Schemes for Multi-Label Classification [7.643377057724898]
我々は、ディープ・ディペンデンス・ネットワーク(DDN)と呼ばれる統合されたフレームワークを提案する。
DDNは依存ネットワークと深層学習アーキテクチャを組み合わせてマルチラベル分類を行う。
マルコフネットワークと比較してDDNの欠点は、高度な推論スキームがないことである。
論文 参考訳(メタデータ) (2024-04-17T18:04:37Z) - Deep Dependency Networks for Multi-Label Classification [24.24496964886951]
マルコフ確率場とニューラルネットワークを組み合わせた従来の手法の性能は、わずかに改善できることを示す。
我々は、依存性ネットワークを拡張するディープ依存ネットワークと呼ばれる新しいモデリングフレームワークを提案する。
単純さにもかかわらず、この新しいアーキテクチャを共同学習することで、パフォーマンスが大幅に向上する。
論文 参考訳(メタデータ) (2023-02-01T17:52:40Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Towards Interpretable Deep Metric Learning with Structural Matching [86.16700459215383]
より透過的な埋め込み学習のための深層解釈可能なメトリック学習(DIML)法を提案する。
本手法は,既製のバックボーンネットワークやメトリック学習手法に適用可能な,モデルに依存しない手法である。
我々は,CUB200-2011,Cars196,Stanford Online Productsの3つの大規模メトリクス学習ベンチマークで評価を行った。
論文 参考訳(メタデータ) (2021-08-12T17:59:09Z) - GuideBP: Guiding Backpropagation Through Weaker Pathways of Parallel
Logits [6.764324841419295]
提案手法は、最も弱い概念表現に沿ったバックプロパゲーションの勾配を導く。
弱点スコアは、ロジットの作成に使用される個々の経路のクラス固有のパフォーマンスを定義する。
提案手法は従来のカラムマージ手法よりも優れていることが示されている。
論文 参考訳(メタデータ) (2021-04-23T14:14:00Z) - Learned Greedy Method (LGM): A Novel Neural Architecture for Sparse
Coding and Beyond [24.160276545294288]
同じ目的のために,欲求追従アルゴリズムの展開版を提案する。
Learned Greedy Method(LGM)のキーとなる特徴は、動的に展開された複数のレイヤに対応する能力である。
論文 参考訳(メタデータ) (2020-10-14T13:17:02Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。