論文の概要: NccFlow: Unsupervised Learning of Optical Flow With Non-occlusion from
Geometry
- arxiv url: http://arxiv.org/abs/2107.03610v1
- Date: Thu, 8 Jul 2021 05:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:35:32.742632
- Title: NccFlow: Unsupervised Learning of Optical Flow With Non-occlusion from
Geometry
- Title(参考訳): NccFlow: 幾何学の非閉塞による光学流れの教師なし学習
- Authors: Guangming Wang, Shuaiqi Ren, and Hesheng Wang
- Abstract要約: 本稿では,非閉塞の洞察と詳細な定義に基づく光学的流れの幾何学的法則を明らかにする。
非閉塞の幾何学的法則に基づく光学流の教師なし学習には2つの損失関数が提案される。
- 参考スコア(独自算出の注目度): 11.394559627312743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical flow estimation is a fundamental problem of computer vision and has
many applications in the fields of robot learning and autonomous driving. This
paper reveals novel geometric laws of optical flow based on the insight and
detailed definition of non-occlusion. Then, two novel loss functions are
proposed for the unsupervised learning of optical flow based on the geometric
laws of non-occlusion. Specifically, after the occlusion part of the images are
masked, the flowing process of pixels is carefully considered and geometric
constraints are conducted based on the geometric laws of optical flow. First,
neighboring pixels in the first frame will not intersect during the pixel
displacement to the second frame. Secondly, when the cluster containing
adjacent four pixels in the first frame moves to the second frame, no other
pixels will flow into the quadrilateral formed by them. According to the two
geometrical constraints, the optical flow non-intersection loss and the optical
flow non-blocking loss in the non-occlusion regions are proposed. Two loss
functions punish the irregular and inexact optical flows in the non-occlusion
regions. The experiments on datasets demonstrated that the proposed
unsupervised losses of optical flow based on the geometric laws in
non-occlusion regions make the estimated optical flow more refined in detail,
and improve the performance of unsupervised learning of optical flow. In
addition, the experiments training on synthetic data and evaluating on real
data show that the generalization ability of optical flow network is improved
by our proposed unsupervised approach.
- Abstract(参考訳): 光フロー推定はコンピュータビジョンの根本的な問題であり、ロボット学習や自動運転の分野で多くの応用がある。
本稿では,非閉塞の洞察と詳細な定義に基づく光学的流れの幾何学的法則を明らかにする。
次に,非閉包の幾何学的法則に基づく光流れの教師なし学習のための2つの新しい損失関数を提案する。
具体的には、画像の閉塞部をマスクした後、画素の流れ過程を慎重に考慮し、光学フローの幾何学的法則に基づいて幾何学的制約を行う。
まず、第1フレーム内の隣接画素は、第2フレームへの画素変位時に交差しない。
第1のフレームに隣接する4画素を含むクラスタが第2のフレームに移動すると、他のピクセルはそれらによって形成された四角形に流れ込まない。
2つの幾何学的制約により、非閉塞領域における光学流非遮断損失と光学流非遮断損失が提案される。
2つの損失関数は非閉塞領域における不規則かつ不正確な光学フローを罰する。
実験の結果,非閉塞領域における幾何法則に基づく光フローの教師なし損失は,推定された光フローをより詳細に洗練させ,光フローの教師なし学習の性能を向上させることを示した。
さらに, 合成データのトレーニングと実データによる評価を行った結果, 光フローネットワークの一般化能力は非教師なし手法により向上した。
関連論文リスト
- Rethink Predicting the Optical Flow with the Kinetics Perspective [1.7901503554839604]
光フロー推定は、低レベルコンピュータビジョンにおける基本的なタスクの1つである。
見かけ上は、連続したフレーム内の画素間の相関として光学フローを見ることができる。
本稿では,このモチベーションから明らかな情報と運動学情報を組み合わせる手法を提案する。
論文 参考訳(メタデータ) (2024-05-21T05:47:42Z) - UFD-PRiME: Unsupervised Joint Learning of Optical Flow and Stereo Depth
through Pixel-Level Rigid Motion Estimation [4.445751695675388]
光の流れとステレオの相違は画像の一致であり、そのため関節トレーニングの恩恵を受けることができる。
我々は、フローと格差を共同で推定し、監督なしに訓練される最初のネットワークを設計する。
第2のネットワークは、第1のネットワークから擬似ラベルとして光学的流れを訓練し、第1のネットワークから格差を取り、各ピクセルにおける3次元剛性運動を推定し、再び光学的流れを再構築する。
論文 参考訳(メタデータ) (2023-10-07T07:08:25Z) - Skin the sheep not only once: Reusing Various Depth Datasets to Drive
the Learning of Optical Flow [25.23550076996421]
本稿では,光学的フロー推定とステレオマッチングの幾何学的接続を活用することを提案する。
モノクラー深度データセットを仮想的不均一性によってステレオデータに変換する。
また、ステレオデータに仮想カメラの動きを導入し、垂直方向に沿って追加のフローを生成する。
論文 参考訳(メタデータ) (2023-10-03T06:56:07Z) - Deep Dynamic Scene Deblurring from Optical Flow [53.625999196063574]
汚れは視覚的により快適な写真を提供し、写真がより便利になる。
非均一な曖昧さを数学的にモデル化することは困難である。
我々は,難解な特徴から鮮明な画像を復元する畳み込みニューラルネットワーク(CNN)を開発した。
論文 参考訳(メタデータ) (2023-01-18T06:37:21Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - Sensor-Guided Optical Flow [53.295332513139925]
本稿では、未知の領域や未知の領域において、より優れた精度を実現するために、外部キューを用いた光フローネットワークを誘導するフレームワークを提案する。
能動センサからの深度測定と幾何および手作り光学フローアルゴリズムを組み合わせることで,これらがどのように得られるかを示す。
論文 参考訳(メタデータ) (2021-09-30T17:59:57Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - OccInpFlow: Occlusion-Inpainting Optical Flow Estimation by Unsupervised
Learning [29.802404790103665]
閉塞は、教師なしの光学フロー学習において必然的で重要な問題である。
OccInpFlowはOccclusion領域をフル活用するためのOccclusion-inpaintingフレームワークである。
本研究では,Flying Chairs,KITTI,MPI-Sintelなどの主要なフローベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-30T10:01:32Z) - What Matters in Unsupervised Optical Flow [51.45112526506455]
教師なし光流における鍵成分の集合を比較し解析する。
教師なしフローモデルに対する新しい改良点を多数構築する。
本稿では,従来の最先端技術よりもはるかに優れた非教師なしフロー技術を提案する。
論文 参考訳(メタデータ) (2020-06-08T19:36:26Z) - Occlusion Aware Unsupervised Learning of Optical Flow From Video [11.505240606712501]
咬合は、物体の動きやカメラの動きによって引き起こされる。
ビデオフレーム間の光の流れを推定するための教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-04T09:08:03Z) - Joint Unsupervised Learning of Optical Flow and Egomotion with Bi-Level
Optimization [59.9673626329892]
エピポーラ幾何を用いた光学フローとカメラモーションのグローバルな関係を利用する。
我々は暗黙の微分を用いて、その実装とは無関係に低レベルの幾何最適化層を通してバックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2020-02-26T22:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。