論文の概要: Learning Optical Flow from a Few Matches
- arxiv url: http://arxiv.org/abs/2104.02166v1
- Date: Mon, 5 Apr 2021 21:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 14:10:58.967528
- Title: Learning Optical Flow from a Few Matches
- Title(参考訳): わずかなマッチングから光の流れを学習する
- Authors: Shihao Jiang, Yao Lu, Hongdong Li, Richard Hartley
- Abstract要約: 密な相関体積表現は冗長であり、その中の要素のほんの一部で正確なフロー推定が達成できることを示した。
実験により,高い精度を維持しつつ計算コストとメモリ使用量を大幅に削減できることを示した。
- 参考スコア(独自算出の注目度): 67.83633948984954
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art neural network models for optical flow estimation require a
dense correlation volume at high resolutions for representing per-pixel
displacement. Although the dense correlation volume is informative for accurate
estimation, its heavy computation and memory usage hinders the efficient
training and deployment of the models. In this paper, we show that the dense
correlation volume representation is redundant and accurate flow estimation can
be achieved with only a fraction of elements in it. Based on this observation,
we propose an alternative displacement representation, named Sparse Correlation
Volume, which is constructed directly by computing the k closest matches in one
feature map for each feature vector in the other feature map and stored in a
sparse data structure. Experiments show that our method can reduce
computational cost and memory use significantly, while maintaining high
accuracy compared to previous approaches with dense correlation volumes. Code
is available at https://github.com/zacjiang/scv .
- Abstract(参考訳): 光フロー推定のための最先端ニューラルネットワークモデルは、ピクセルごとの変位を表すために高解像度の相関体積を必要とする。
密接な相関ボリュームは正確な推定に役立ちますが、その重い計算とメモリ使用はモデルの効率的なトレーニングとデプロイを妨げます。
本稿では,密度相関容積表現が冗長であり,その中の要素のほんの一部で正確な流量推定を行うことができることを示す。
そこで本研究では,特徴ベクトルの1つの特徴マップにおけるkに最も近いマッチングを他の特徴マップで計算し,スパースデータ構造に格納した,スパース相関ボリュームという別の変位表現を提案する。
実験の結果,計算コストとメモリ使用量を大幅に削減できるとともに,相関量の密接な従来の手法と比較して高い精度を維持することができた。
コードはhttps://github.com/zacjiang/scv で入手できる。
関連論文リスト
- Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Large Graph Signal Denoising with Application to Differential Privacy [2.867517731896504]
本稿では,データ駆動型ウェーブレット・タイト・フレーム手法を用いて,グラフ上の信号のデノイングを行う場合について考察する。
我々はChebyshev-Jackson近似を用いて、大きなグラフにスケーラブルにする。
実データとシミュレーションデータから,様々な大きさのグラフに対して総合的な性能解析を行う。
論文 参考訳(メタデータ) (2022-09-05T16:32:54Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - Effective Streaming Low-tubal-rank Tensor Approximation via Frequent
Directions [9.43704219585568]
本稿では,高速かつ高精度な低ツバルランクテンソル近似を構築するために,行列スケッチ技術である周波数方向( Frequent Directions)を拡張した。
具体的には、新しいアルゴリズムではテンソルデータをスライスごとにスライスすることができるが、より小さなスケッチをメンテナンスし、漸進的に更新するだけでよい。
厳密な理論解析により,スケッチサイズが線形に大きくなると,新しいアルゴリズムの近似誤差が任意に小さくなることを示した。
論文 参考訳(メタデータ) (2021-08-23T12:53:44Z) - Featurized Density Ratio Estimation [82.40706152910292]
本研究では,2つの分布を推定前の共通特徴空間にマッピングするために,可逆生成モデルを活用することを提案する。
この偉業化は、学習された入力空間の密度比が任意に不正確な場合、潜在空間において密度が密接な関係をもたらす。
同時に、特徴写像の可逆性は、特徴空間で計算された比が入力空間で計算された比と同値であることを保証する。
論文 参考訳(メタデータ) (2021-07-05T18:30:26Z) - Scalable Vector Gaussian Information Bottleneck [19.21005180893519]
そこで我々は,エンコーダが観測の複数の記述を出力するスケーラブルな情報ボトルネックと呼ばれる問題の変動について検討する。
分布が不明な一般ソースに対する変分推論型アルゴリズムを導出し,ニューラルネットワークを用いてパラメータ化する方法を示す。
論文 参考訳(メタデータ) (2021-02-15T12:51:26Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。