論文の概要: Normalized Convolution Upsampling for Refined Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2102.06979v1
- Date: Sat, 13 Feb 2021 18:34:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:46:15.764281
- Title: Normalized Convolution Upsampling for Refined Optical Flow Estimation
- Title(参考訳): 精製光フロー推定のための正規化畳み込みアップサンプリング
- Authors: Abdelrahman Eldesokey, Michael Felsberg
- Abstract要約: 正常化された畳み込みのUPsampler (NCUP)は光学流れCNNsの訓練の間にフル レゾリューションの流れを作り出す有効な共同アップサンプリングのアプローチです。
提案手法では,アップサンプリングタスクをスパース問題として定式化し,正規化畳み込みニューラルネットワークを用いて解く。
6%のエラー低減とKITTIデータセットのオンパーで、Sintelベンチマークの最新の結果を達成し、パラメータを7.5%削減します。
- 参考スコア(独自算出の注目度): 23.652615797842085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow is a regression task where convolutional neural networks (CNNs)
have led to major breakthroughs. However, this comes at major computational
demands due to the use of cost-volumes and pyramidal representations. This was
mitigated by producing flow predictions at quarter the resolution, which are
upsampled using bilinear interpolation during test time. Consequently, fine
details are usually lost and post-processing is needed to restore them. We
propose the Normalized Convolution UPsampler (NCUP), an efficient joint
upsampling approach to produce the full-resolution flow during the training of
optical flow CNNs. Our proposed approach formulates the upsampling task as a
sparse problem and employs the normalized convolutional neural networks to
solve it. We evaluate our upsampler against existing joint upsampling
approaches when trained end-to-end with a a coarse-to-fine optical flow CNN
(PWCNet) and we show that it outperforms all other approaches on the
FlyingChairs dataset while having at least one order fewer parameters.
Moreover, we test our upsampler with a recurrent optical flow CNN (RAFT) and we
achieve state-of-the-art results on Sintel benchmark with ~6% error reduction,
and on-par on the KITTI dataset, while having 7.5% fewer parameters (see Figure
1). Finally, our upsampler shows better generalization capabilities than RAFT
when trained and evaluated on different datasets.
- Abstract(参考訳): 光フローは、畳み込みニューラルネットワーク(CNN)が大きなブレークスルーをもたらした回帰タスクである。
しかし、これはコストボリュームとピラミッド表現の使用による計算上の大きな要求が伴う。
これは4分の1の解像度でフロー予測を生成し、テスト時間中にバイリニア補間を用いてサンプリングすることで緩和された。
したがって、細かい詳細は通常失われ、後処理はそれらを復元するために必要です。
光フローCNNのトレーニング中にフルレゾリューションフローを生成するための効率的なジョイントアップサンプリングアプローチであるNormalized Convolution UPsampler(NCUP)を提案します。
提案手法では,アップサンプリングタスクをスパース問題として定式化し,正規化畳み込みニューラルネットワークを用いて解く。
我々は,粗い光フローcnn (pwcnet) を用いてエンド・ツー・エンドを訓練した場合の既存のジョイント・アップサンプリング手法に対するupsamplerの評価を行い,少なくとも1桁のパラメータを持つフライングチェアズ・データセット上の他のすべてのアプローチよりも優れていることを示す。
さらに,リカレントオプティカルフローcnn(raft)を用いてアップサンプラーをテストし,sintelベンチマークによる最新結果を約6%の誤差低減とkittiデータセットのオンペアで達成し,パラメータを7.5%削減した(図1参照)。
最後に、我々のアップサンプラーは、異なるデータセットでトレーニングおよび評価を行う際に、RAFTよりも優れた一般化能力を示す。
関連論文リスト
- Efficient NeRF Optimization -- Not All Samples Remain Equally Hard [9.404889815088161]
ニューラルレイディアンスフィールド(NeRF)の効率的なトレーニングのためのオンラインハードサンプルマイニングの応用を提案する。
NeRFモデルは、多くの3D再構成およびレンダリングタスクに対して最先端の品質を生み出すが、かなりの計算資源を必要とする。
論文 参考訳(メタデータ) (2024-08-06T13:49:01Z) - Adaptive Heterogeneous Client Sampling for Federated Learning over Wireless Networks [27.545199007002577]
フェデレートラーニング(FL)アルゴリズムは、参加者数が大きい場合、各ラウンド(部分的な参加)に少数のクライアントをサンプリングする。
FLの最近の収束解析は、クライアントの不均一性によるスロークロック収束に焦点を当てている。
任意の確率サンプリングによるFLのための新しいトラクタブル収束システムを提案する。
論文 参考訳(メタデータ) (2024-04-22T00:16:18Z) - Adaptive Sampling for Deep Learning via Efficient Nonparametric Proxies [35.29595714883275]
我々は,Nadaraya-Watson推定器に対する効率的なスケッチベース近似を開発した。
サンプリングアルゴリズムは,4つのデータセットに対して,壁面時間と精度でベースラインを上回っている。
論文 参考訳(メタデータ) (2023-11-22T18:40:18Z) - RL-based Stateful Neural Adaptive Sampling and Denoising for Real-Time
Path Tracing [1.534667887016089]
モンテカルロ経路追跡は、現実的な画像合成の強力な手法であるが、低いサンプル数での高レベルのノイズに悩まされている。
本稿では,サンプリング重要度ネットワーク,遅延空間エンコーダネットワーク,デノイザネットワークをエンドツーエンドでトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-05T12:39:27Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Tackling System and Statistical Heterogeneity for Federated Learning
with Adaptive Client Sampling [34.187387951367526]
フェデレーテッド・ラーニング(FL)アルゴリズムは、参加者数が大きい場合、通常、各(部分的な参加)の割合をサンプリングする。
最近の研究はFLの収束解析に焦点を当てている。
任意のクライアントサンプリング確率を持つFLアルゴリズムの新しい収束バウンダリを得る。
論文 参考訳(メタデータ) (2021-12-21T14:28:40Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - STaRFlow: A SpatioTemporal Recurrent Cell for Lightweight Multi-Frame
Optical Flow Estimation [64.99259320624148]
マルチフレーム光フロー推定のための軽量CNNアルゴリズムを提案する。
結果のSTaRFlowアルゴリズムは、MPI SintelとKitti2015で最先端のパフォーマンスを提供する。
論文 参考訳(メタデータ) (2020-07-10T17:01:34Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。