論文の概要: Occlusion Aware Unsupervised Learning of Optical Flow From Video
- arxiv url: http://arxiv.org/abs/2003.01960v1
- Date: Wed, 4 Mar 2020 09:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 13:18:18.541730
- Title: Occlusion Aware Unsupervised Learning of Optical Flow From Video
- Title(参考訳): 映像からのオプティカルフローの教師なし学習を意識した咬合
- Authors: Jianfeng Li, Junqiao Zhao, Tiantian Feng, Chen Ye, Lu Xiong
- Abstract要約: 咬合は、物体の動きやカメラの動きによって引き起こされる。
ビデオフレーム間の光の流れを推定するための教師なし学習手法を提案する。
- 参考スコア(独自算出の注目度): 11.505240606712501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we proposed an unsupervised learning method for estimating the
optical flow between video frames, especially to solve the occlusion problem.
Occlusion is caused by the movement of an object or the movement of the camera,
defined as when certain pixels are visible in one video frame but not in
adjacent frames. Due to the lack of pixel correspondence between frames in the
occluded area, incorrect photometric loss calculation can mislead the optical
flow training process. In the video sequence, we found that the occlusion in
the forward ($t\rightarrow t+1$) and backward ($t\rightarrow t-1$) frame pairs
are usually complementary. That is, pixels that are occluded in subsequent
frames are often not occluded in the previous frame and vice versa. Therefore,
by using this complementarity, a new weighted loss is proposed to solve the
occlusion problem. In addition, we calculate gradients in multiple directions
to provide richer supervision information. Our method achieves competitive
optical flow accuracy compared to the baseline and some supervised methods on
KITTI 2012 and 2015 benchmarks. This source code has been released at
https://github.com/jianfenglihg/UnOpticalFlow.git.
- Abstract(参考訳): 本稿では,映像フレーム間の光学的流れを推定する教師なし学習手法を提案する。
閉塞は、物体の移動またはカメラの動きによって引き起こされ、あるピクセルが1つのビデオフレームで見えるが隣接するフレームでは見えない場合に定義される。
閉鎖領域におけるフレーム間の画素対応の欠如により、誤った光量損失計算が光フロートレーニングプロセスを誤解させる可能性がある。
ビデオのシーケンスでは、前方(t\rightarrow t+1$)と後方(t\rightarrow t-1$)のフレームペアの閉塞は通常相補的であることがわかった。
つまり、後続のフレームでオクルードされたピクセルは、しばしば前フレームでオクルードされず、その逆である。
そこで, この相補性を用いて, 閉塞問題の解法として新たな重み付き損失を提案する。
さらに,複数の方向の勾配を計算し,より詳細な監督情報を提供する。
本手法は,kitti 2012 および 2015 のベンチマークにおいて,ベースラインおよび教師付き手法と比較し,光学フローの精度を比較検討できる。
このソースコードはhttps://github.com/jianfenglihg/UnOpticalFlow.gitで公開されている。
関連論文リスト
- OCAI: Improving Optical Flow Estimation by Occlusion and Consistency Aware Interpolation [55.676358801492114]
本稿では,中間映像フレームと光フローを同時に生成することで,フレームのあいまいさを頑健に支援するOCAIを提案する。
我々は,Sintel や KITTI などの既存のベンチマークにおいて,優れた品質と光フロー精度を実証した。
論文 参考訳(メタデータ) (2024-03-26T20:23:48Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - Particle Videos Revisited: Tracking Through Occlusions Using Point
Trajectories [29.258861811749103]
我々はSandとTellerの"パーティクルビデオ"アプローチを再検討し、長距離モーション推定問題としてピクセル追跡について検討する。
私たちはこの古典的なアプローチを、現在の最先端のフローとオブジェクトトラッキングを駆動するコンポーネントを使って再構築します。
既存の光学フローデータセットから抽出した長距離アモーダル点軌道を用いてモデルを訓練する。
論文 参考訳(メタデータ) (2022-04-08T16:05:48Z) - Video Frame Interpolation without Temporal Priors [91.04877640089053]
ビデオフレームは、既存の中間フレームをビデオシーケンスで合成することを目的としている。
フレーム/秒(FPS)やフレーム露光時間といったビデオの時間的先行は、異なるカメラセンサーによって異なる場合がある。
我々は、より良い合成結果を得るために、新しい光フロー改善戦略を考案する。
論文 参考訳(メタデータ) (2021-12-02T12:13:56Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - NccFlow: Unsupervised Learning of Optical Flow With Non-occlusion from
Geometry [11.394559627312743]
本稿では,非閉塞の洞察と詳細な定義に基づく光学的流れの幾何学的法則を明らかにする。
非閉塞の幾何学的法則に基づく光学流の教師なし学習には2つの損失関数が提案される。
論文 参考訳(メタデータ) (2021-07-08T05:19:54Z) - Learning to Estimate Hidden Motions with Global Motion Aggregation [71.12650817490318]
閉塞は、局所的な証拠に依存する光学フローアルゴリズムに重大な課題をもたらす。
最初の画像でピクセル間の長距離依存性を見つけるために,グローバルモーションアグリゲーションモジュールを導入する。
遮蔽領域における光流量推定が非遮蔽領域における性能を損なうことなく大幅に改善できることを実証した。
論文 参考訳(メタデータ) (2021-04-06T10:32:03Z) - The Invertible U-Net for Optical-Flow-free Video Interframe Generation [31.100044730381047]
本稿では,問題のある光流を使わずに映像フレーム間生成問題に取り組む。
フレーム間の意味的時間的整合性を維持するために,潜在空間に新たな整合性損失を持つ学習手法を提案する。
生成した画像の解像度は、可逆ネットワークを用いて元の画像と同一であることが保証される。
論文 参考訳(メタデータ) (2021-03-17T11:37:10Z) - Flow-edge Guided Video Completion [66.49077223104533]
従来のフローコンプリート法は、しばしば運動境界のシャープさを維持することができない。
提案手法は,まず動きエッジを抽出し,その後,鋭いエッジで平滑な流れ完了を導出する。
論文 参考訳(メタデータ) (2020-09-03T17:59:42Z) - OccInpFlow: Occlusion-Inpainting Optical Flow Estimation by Unsupervised
Learning [29.802404790103665]
閉塞は、教師なしの光学フロー学習において必然的で重要な問題である。
OccInpFlowはOccclusion領域をフル活用するためのOccclusion-inpaintingフレームワークである。
本研究では,Flying Chairs,KITTI,MPI-Sintelなどの主要なフローベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-30T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。