論文の概要: GERD: Geometric event response data generation
- arxiv url: http://arxiv.org/abs/2412.03259v1
- Date: Wed, 04 Dec 2024 11:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:08:08.295198
- Title: GERD: Geometric event response data generation
- Title(参考訳): GERD:幾何学的イベント応答データ生成
- Authors: Jens Egholm Pedersen, Dimitris Korakovounis, Jörg Conradt,
- Abstract要約: イベントベースの視覚センサーは、その時間分解能、より高いダイナミックレンジ、低消費電力のために魅力的である。
また、従来のフレームベースのカメラと根本的に異なるデータも提供します。
制御された変換の下でイベントベースのデータを生成する方法を提案する。
- 参考スコア(独自算出の注目度): 1.5269221584932013
- License:
- Abstract: Event-based vision sensors are appealing because of their time resolution, higher dynamic range, and low-power consumption. They also provide data that is fundamentally different from conventional frame-based cameras: events are sparse, discrete, and require integration in time. Unlike conventional models grounded in established geometric and physical principles, event-based models lack comparable foundations. We introduce a method to generate event-based data under controlled transformations. Specifically, we subject a prototypical object to transformations that change over time to produce carefully curated event videos. We hope this work simplifies studies for geometric approaches in event-based vision. GERD is available at https://github.com/ncskth/gerd
- Abstract(参考訳): イベントベースの視覚センサーは、その時間分解能、より高いダイナミックレンジ、低消費電力のために魅力的である。
また、従来のフレームベースのカメラと根本的に異なるデータも提供します。
確立された幾何学的および物理的原理に基づく従来のモデルとは異なり、イベントベースのモデルは同等の基礎を欠いている。
制御された変換の下でイベントベースのデータを生成する方法を提案する。
具体的には、時間とともに変化する変換にプロトタイプオブジェクトを適用して、慎重にキュレートされたイベントビデオを生成する。
この研究がイベントベースの視覚における幾何学的アプローチの研究を単純化することを願っている。
GERDはhttps://github.com/ncskth/gerdで利用可能である。
関連論文リスト
- STREAM: A Universal State-Space Model for Sparse Geometric Data [2.9483719973596303]
ポイントクラウドやイベントベースのビジョンなど、非構造化の幾何学的データを扱うことは、マシンビジョンの分野における急激な課題である。
状態空間モデルのパラメータ化に幾何構造を明示的にエンコードすることを提案する。
本モデルでは, スパースデータを最新のハードウェアに効率的にマッピングするために, カーネルを改良したMamba選択状態空間モデルをデプロイする。
論文 参考訳(メタデータ) (2024-11-19T16:06:32Z) - Spatio-temporal Transformers for Action Unit Classification with Event Cameras [28.98336123799572]
本稿では,RGBビデオとイベントストリームからなる時間同期型マルチモーダル顔データセットであるFACEMORPHICを提案する。
映像を手動でアノテートすることなく、時間同期が効果的なニューロモルフィック顔分析を可能にすることを示す。
論文 参考訳(メタデータ) (2024-10-29T11:23:09Z) - GeoWizard: Unleashing the Diffusion Priors for 3D Geometry Estimation from a Single Image [94.56927147492738]
単一画像から幾何学的属性を推定するための新しい生成基盤モデルであるGeoWizardを紹介する。
拡散前処理の活用は,資源利用における一般化,詳細な保存,効率性を著しく向上させることが示唆された。
本稿では,様々なシーンの複雑なデータ分布を,個別のサブディストリビューションに分離する,シンプルかつ効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-03-18T17:50:41Z) - GeoDeformer: Geometric Deformable Transformer for Action Recognition [22.536307401874105]
視覚トランスフォーマーは、近年、行動認識のための畳み込みネットワークの効果的な代替品として登場した。
本稿では,幾何学的理解を直接ViTアーキテクチャに組み込むことで,アクションビデオに固有の変動を捉えるための新しいアプローチであるGeoDeformerを提案する。
論文 参考訳(メタデータ) (2023-11-29T16:55:55Z) - GET: Group Event Transformer for Event-Based Vision [82.312736707534]
イベントカメラは、注目を集めている新しいニューロモルフィックセンサーの一種である。
我々は、グループイベントトランスフォーマー(GET)と呼ばれる、イベントベースのビジョンのための新しいグループベースのビジョントランスフォーマーバックボーンを提案する。
GETは特徴抽出プロセスを通して空間的インフォメーションから時間的極性情報を分離する。
論文 参考訳(メタデータ) (2023-10-04T08:02:33Z) - EvDNeRF: Reconstructing Event Data with Dynamic Neural Radiance Fields [80.94515892378053]
EvDNeRFは、イベントデータを生成し、イベントベースの動的NeRFをトレーニングするためのパイプラインである。
NeRFは幾何学ベースの学習可能なレンダリングを提供するが、イベントの以前の作業は静的なシーンの再構築のみを考慮していた。
各種イベントのバッチサイズをトレーニングすることにより、微細な時間解像度でイベントのテスト時間予測を改善することができることを示す。
論文 参考訳(メタデータ) (2023-10-03T21:08:41Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Event-based Non-Rigid Reconstruction from Contours [17.049602518532847]
本稿では,イベントベースカメラを用いた新しい変形再構成手法を提案する。
全てのイベントが動きによって生成される静的な背景の仮定の下で、我々の手法はオブジェクトの輪郭で生成されたイベントからオブジェクトの変形を推定する。
イベントを輪郭のメッシュフェイスに関連付け、イベントピクセルと関連する顔との間の視線のアライメントを最大化する。
論文 参考訳(メタデータ) (2022-10-12T14:53:11Z) - Event Data Association via Robust Model Fitting for Event-based Object Tracking [66.05728523166755]
本稿では,イベントアソシエーションと融合問題に明示的に対処する新しいイベントデータアソシエーション(EDA)手法を提案する。
提案するEDAは、統合データアソシエーションと情報融合を行うために、イベントデータに最も適したイベントトラジェクトリを求める。
実験結果から,高速,運動のぼやけ,高ダイナミックレンジ条件といった難易度シナリオ下でのEDAの有効性が示された。
論文 参考訳(メタデータ) (2021-10-25T13:56:00Z) - Differentiable Event Stream Simulator for Non-Rigid 3D Tracking [82.56690776283428]
我々の微分可能シミュレータは、イベントストリームから変形可能なオブジェクトの非剛性3D追跡を可能にする。
様々な種類の非剛体物体に対するアプローチの有効性を示し, 既存の非剛体3次元追跡手法と比較した。
論文 参考訳(メタデータ) (2021-04-30T17:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。