論文の概要: Event-based Non-Rigid Reconstruction from Contours
- arxiv url: http://arxiv.org/abs/2210.06270v1
- Date: Wed, 12 Oct 2022 14:53:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:55:09.243406
- Title: Event-based Non-Rigid Reconstruction from Contours
- Title(参考訳): 輪郭からのイベントベース非剛性再構成
- Authors: Yuxuan Xue, Haolong Li, Stefan Leutenegger, J\"org St\"uckler
- Abstract要約: 本稿では,イベントベースカメラを用いた新しい変形再構成手法を提案する。
全てのイベントが動きによって生成される静的な背景の仮定の下で、我々の手法はオブジェクトの輪郭で生成されたイベントからオブジェクトの変形を推定する。
イベントを輪郭のメッシュフェイスに関連付け、イベントピクセルと関連する顔との間の視線のアライメントを最大化する。
- 参考スコア(独自算出の注目度): 17.049602518532847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual reconstruction of fast non-rigid object deformations over time is a
challenge for conventional frame-based cameras. In this paper, we propose a
novel approach for reconstructing such deformations using measurements from
event-based cameras. Under the assumption of a static background, where all
events are generated by the motion, our approach estimates the deformation of
objects from events generated at the object contour in a probabilistic
optimization framework. It associates events to mesh faces on the contour and
maximizes the alignment of the line of sight through the event pixel with the
associated face. In experiments on synthetic and real data, we demonstrate the
advantages of our method over state-of-the-art optimization and learning-based
approaches for reconstructing the motion of human hands. A video of the
experiments is available at https://youtu.be/gzfw7i5OKjg
- Abstract(参考訳): 高速非剛性物体の時間的変形の視覚的再構成は、従来のフレームベースカメラでは難しい課題である。
本稿では,イベントベースカメラからの計測値を用いて変形を再構成する新しい手法を提案する。
すべてのイベントが動きによって生成される静的背景の仮定の下で、確率的最適化フレームワークにおいて、オブジェクト輪郭で生成されたイベントからオブジェクトの変形を推定する。
輪郭上のメッシュ顔とイベントを関連付け、イベントピクセルと関連する顔との間の視線のアライメントを最大化する。
合成データおよび実データを用いた実験において,人間の手の動きを再構築するための最先端最適化と学習に基づくアプローチよりも,この手法の利点を実証する。
実験のビデオはhttps://youtu.be/gzfw7i5okjgで見ることができる。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - DeFMO: Deblurring and Shape Recovery of Fast Moving Objects [139.67524021201103]
生成モデルは、ぼやけたオブジェクトのイメージを潜在空間表現に埋め込み、背景を歪め、シャープな外観を描画する。
DeFMOは芸術の状態を上回り、高品質の時間超解像フレームを生成する。
論文 参考訳(メタデータ) (2020-12-01T16:02:04Z) - Learning Event-Based Motion Deblurring [39.16921854492941]
高速な動きは、イベントベースのカメラの高速でイベントとしてキャプチャすることができる。
我々は、その最適化を、新しいエンドツーエンドのディープアーキテクチャでどのように展開できるかを示す。
提案手法は、最先端の復元品質を実現し、実世界の動きのぼかし処理をより一般化する。
論文 参考訳(メタデータ) (2020-04-13T07:01:06Z) - Future Video Synthesis with Object Motion Prediction [54.31508711871764]
画像を直接合成するのではなく、複雑なシーンのダイナミクスを理解するように設計されている。
将来のシーンコンポーネントの出現は、背景の非剛性変形と移動物体のアフィン変換によって予測される。
CityscapesとKITTIデータセットの実験結果から、我々のモデルは視覚的品質と精度で最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-04-01T16:09:54Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。