論文の概要: Animation from Blur: Multi-modal Blur Decomposition with Motion Guidance
- arxiv url: http://arxiv.org/abs/2207.10123v1
- Date: Wed, 20 Jul 2022 18:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:43:24.082459
- Title: Animation from Blur: Multi-modal Blur Decomposition with Motion Guidance
- Title(参考訳): blurからのアニメーション:モーションガイダンスによるマルチモーダルボケ分解
- Authors: Zhihang Zhong, Xiao Sun, Zhirong Wu, Yinqiang Zheng, Stephen Lin and
Imari Sato
- Abstract要約: 単一の動き赤画像から詳細な動きを復元する際の課題について検討する。
既存の解法では、各領域の運動のあいまいさを考慮せずに単一の画像列を推定する。
本稿では、このような動きのあいまいさを明示的に説明し、複数の可算解をシャープな詳細で生成することができる。
- 参考スコア(独自算出の注目度): 83.25826307000717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the challenging problem of recovering detailed motion from a single
motion-blurred image. Existing solutions to this problem estimate a single
image sequence without considering the motion ambiguity for each region.
Therefore, the results tend to converge to the mean of the multi-modal
possibilities. In this paper, we explicitly account for such motion ambiguity,
allowing us to generate multiple plausible solutions all in sharp detail. The
key idea is to introduce a motion guidance representation, which is a compact
quantization of 2D optical flow with only four discrete motion directions.
Conditioned on the motion guidance, the blur decomposition is led to a
specific, unambiguous solution by using a novel two-stage decomposition
network. We propose a unified framework for blur decomposition, which supports
various interfaces for generating our motion guidance, including human input,
motion information from adjacent video frames, and learning from a video
dataset. Extensive experiments on synthesized datasets and real-world data show
that the proposed framework is qualitatively and quantitatively superior to
previous methods, and also offers the merit of producing physically plausible
and diverse solutions. Code is available at
https://github.com/zzh-tech/Animation-from-Blur.
- Abstract(参考訳): 本研究では,1つの動きブル画像から詳細な動きを復元する難題について検討する。
この問題に対する既存の解は、各領域の動きの曖昧さを考慮せずに単一の画像列を推定する。
したがって、結果はマルチモーダルな可能性の平均に収束する傾向にある。
本稿では、このような動きのあいまいさを明確に説明し、複数の可算解を鋭い詳細で生成することができる。
鍵となる考え方は4つの離散的な動き方向のみを持つ2次元光学流れのコンパクトな量子化である動き誘導表現の導入である。
動き誘導を条件として、新しい二段階分解ネットワークを用いて、ぼかし分解を特定の不明瞭な解に導く。
本研究では,人間の入力,隣接映像フレームからの動作情報,映像データセットからの学習など,様々な動作ガイダンスを生成するためのインタフェースをサポートする,ぼかし分解のための統一フレームワークを提案する。
合成データセットと実世界のデータに関する広範囲な実験は、提案手法が従来の手法よりも質的かつ定量的に優れていることを示している。
コードはhttps://github.com/zzh-tech/animation-from-blurで入手できる。
関連論文リスト
- Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - A Constrained Deformable Convolutional Network for Efficient Single
Image Dynamic Scene Blind Deblurring with Spatially-Variant Motion Blur
Kernels Estimation [12.744989551644744]
本稿では,効率的なシングルイメージダイナミックシーンブラインドブルのための制約付き変形可能な畳み込みネットワーク(CDCN)を提案する。
CDCNは、高精度な空間変動運動ぼかしカーネル推定と高品質な画像復元を同時に達成する。
論文 参考訳(メタデータ) (2022-08-23T03:28:21Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - Exploring Motion and Appearance Information for Temporal Sentence
Grounding [52.01687915910648]
本研究では、時間的文のグラウンド化を解決するために、MARN(Motion-Appearance Reasoning Network)を提案する。
動作誘導と外見誘導のオブジェクト関係を学習するために,動作分岐と外見分岐を別々に開発する。
提案するMARNは,従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-01-03T02:44:18Z) - Image Animation with Keypoint Mask [0.0]
モーショントランスファー(Motion Transfer)は、特定の駆動ビデオからの動作に応じて、単一のソース画像の将来のビデオフレームを合成するタスクである。
本研究では,キーポイントのヒートマップから,明示的な動作表現を伴わずに構造を抽出する。
そして、画像と映像から構造を抽出し、深部ジェネレータにより映像に応じて映像をワープする。
論文 参考訳(メタデータ) (2021-12-20T11:35:06Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Convolutional Autoencoders for Human Motion Infilling [37.16099544563645]
モーションインフィルメントは、入力されたポーズがスタートシーケンスを確実に予測し、エンドシーケンスに自然に遷移するような、欠落したギャップを埋めることを目的としている。
一つのモデルを用いて、異なるタイプのアクティビティ間の自然な遷移を生成できることが示される。
提案手法は, 欠落フレーム全体を埋めるだけでなく, 部分的なポーズが利用できるようなギャップを埋めるのにも利用できる。
論文 参考訳(メタデータ) (2020-10-22T08:45:38Z) - Multi-object Monocular SLAM for Dynamic Environments [12.537311048732017]
マルチボディ(multibody)という言葉は、カメラの動きと、シーン内の他のダイナミックな参加者の動きを追跡することを意味する。
既存のアプローチは制限された問題の変種を解くが、解は相対的なスケールの曖昧さに悩まされる。
本稿では,相対的および絶対的スケール係数の曖昧さを解決するために,多ポーズグラフ最適化の定式化を提案する。
論文 参考訳(メタデータ) (2020-02-10T03:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。