論文の概要: Motion Deblurring with Real Events
- arxiv url: http://arxiv.org/abs/2109.13695v1
- Date: Tue, 28 Sep 2021 13:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 19:53:45.476864
- Title: Motion Deblurring with Real Events
- Title(参考訳): 実イベントによる動作不良
- Authors: Fang Xu and Lei Yu and Bishan Wang and Wen Yang and Gui-Song Xia and
Xu Jia and Zhendong Qiao and Jianzhuang Liu
- Abstract要約: 本稿では,イベントベースの動作を自己教師型で記述するエンド・ツー・エンドの学習フレームワークを提案する。
実世界のイベントは、データ不整合によるパフォーマンス劣化を軽減するために利用される。
- 参考スコア(独自算出の注目度): 50.441934496692376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose an end-to-end learning framework for event-based
motion deblurring in a self-supervised manner, where real-world events are
exploited to alleviate the performance degradation caused by data
inconsistency. To achieve this end, optical flows are predicted from events,
with which the blurry consistency and photometric consistency are exploited to
enable self-supervision on the deblurring network with real-world data.
Furthermore, a piece-wise linear motion model is proposed to take into account
motion non-linearities and thus leads to an accurate model for the physical
formation of motion blurs in the real-world scenario. Extensive evaluation on
both synthetic and real motion blur datasets demonstrates that the proposed
algorithm bridges the gap between simulated and real-world motion blurs and
shows remarkable performance for event-based motion deblurring in real-world
scenarios.
- Abstract(参考訳): 本稿では,データ不整合による性能劣化を緩和するために,実世界のイベントを活用可能な,イベントベースの学習フレームワークを提案する。
この目的を達成するために、ぼやけた一貫性と測光整合性を利用するイベントから光フローを予測し、実世界データによる遅延ネットワークの自己監督を可能にする。
さらに, 動きの非線形性を考慮した分割線形運動モデルを提案し, 実世界シナリオにおける動きのぼやけの物理的形成の正確なモデルとなる。
合成および実動ボケデータセットの広範な評価により,提案アルゴリズムは実世界の動きボケとシミュレーションされた動きボケのギャップを橋渡しし,実世界のシナリオにおける事象に基づく動きボケの顕著な性能を示す。
関連論文リスト
- Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - Motion-aware Latent Diffusion Models for Video Frame Interpolation [51.78737270917301]
隣接するフレーム間の動き推定は、動きのあいまいさを避ける上で重要な役割を担っている。
我々は、新しい拡散フレームワーク、動き認識潜在拡散モデル(MADiff)を提案する。
提案手法は,既存手法を著しく上回る最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-21T05:09:56Z) - TrackDiffusion: Tracklet-Conditioned Video Generation via Diffusion Models [75.20168902300166]
微粒な軌跡条件の運動制御が可能な新しい映像生成フレームワークであるTrackDiffusionを提案する。
TrackDiffusionの重要なコンポーネントは、複数のオブジェクトのフレーム間の一貫性を明確に保証するインスタンスエンハンサーである。
TrackDiffusionによって生成されたビデオシーケンスは、視覚知覚モデルのトレーニングデータとして使用できる。
論文 参考訳(メタデータ) (2023-12-01T15:24:38Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - A Diffusion-Model of Joint Interactive Navigation [14.689298253430568]
本稿では,交通シナリオを生成する拡散に基づくDJINNを提案する。
我々のアプローチは、過去、現在、未来からのフレキシブルな状態観察のセットに基づいて、全てのエージェントの軌跡を共同で拡散させる。
本稿では,DJINNが様々な条件分布からの直接的テスト時間サンプリングを柔軟に行う方法を示す。
論文 参考訳(メタデータ) (2023-09-21T22:10:20Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。