論文の概要: Spike Imaging Velocimetry: Dense Motion Estimation of Fluids Using Spike Cameras
- arxiv url: http://arxiv.org/abs/2504.18864v1
- Date: Sat, 26 Apr 2025 09:14:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.024266
- Title: Spike Imaging Velocimetry: Dense Motion Estimation of Fluids Using Spike Cameras
- Title(参考訳): スパイクイメージング速度測定:スパイクカメラを用いた流体の密度運動推定
- Authors: Yunzhong Zhang, Bo Xiong, You Zhou, Changqing Su, Zhen Cheng, Zhaofei Yu, Xun Cao, Tiejun Huang,
- Abstract要約: 本研究では、粒子画像速度測定(PIV)におけるスパイクカメラ(超高速・高ダイナミックレンジカメラの一種)の膨大なポテンシャルについて検討する。
本研究では,高乱流・複雑な流れ場に特化して設計された深層学習フレームワークSpike Imaging Velocimetry (SIV)を提案する。
本稿では,スパイクに基づくPIVデータセットであるParticle Scenes with Spike and Displacement (PSSD)を提案する。
- 参考スコア(独自算出の注目度): 56.30609439239127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need for accurate and non-intrusive flow measurement methods has led to the widespread adoption of Particle Image Velocimetry (PIV), a powerful diagnostic tool in fluid motion estimation. This study investigates the tremendous potential of spike cameras (a type of ultra-high-speed, high-dynamic-range camera) in PIV. We propose a deep learning framework, Spike Imaging Velocimetry (SIV), designed specifically for highly turbulent and intricate flow fields. To aggregate motion features from the spike stream while minimizing information loss, we incorporate a Detail-Preserving Hierarchical Transform (DPHT) module. Additionally, we introduce a Graph Encoder (GE) to extract contextual features from highly complex fluid flows. Furthermore, we present a spike-based PIV dataset, Particle Scenes with Spike and Displacement (PSSD), which provides labeled data for three challenging fluid dynamics scenarios. Our proposed method achieves superior performance compared to existing baseline methods on PSSD. The datasets and our implementation of SIV are open-sourced in the supplementary materials.
- Abstract(参考訳): 高精度で非侵襲的な流量測定法の必要性により、流体運動推定の強力な診断ツールであるParticle Image Velocimetry (PIV)が広く採用されている。
本研究では,PIVにおけるスパイクカメラ(超高速・高ダイナミックレンジカメラの一種)の膨大な可能性について検討した。
本研究では,高乱流・複雑な流れ場に特化して設計された深層学習フレームワークSpike Imaging Velocimetry (SIV)を提案する。
情報損失を最小限に抑えつつスパイクストリームからの動作特徴を集約するために,詳細保存階層変換(DPHT)モジュールを組み込んだ。
さらに,複雑な流体の流れからコンテキスト特徴を抽出するグラフエンコーダ(GE)を導入する。
さらに,スパイクに基づくPIVデータセットであるParticle Scenes with Spike and Displacement (PSSD)を提案する。
提案手法は,既存のPSSDのベースライン法と比較して優れた性能を実現する。
データセットとSIVの実装は補足材料でオープンソース化されている。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースビジュアル・オドメトリーは、追跡とサブプロブレムのマッピング(典型的には並列)を解決することを目的としている
直接パイプライン上に,イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
結果として得られるシステムは、現代の高解像度のイベントカメラでうまくスケールする。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - KFD-NeRF: Rethinking Dynamic NeRF with Kalman Filter [49.85369344101118]
KFD-NeRFは,Kalmanフィルタに基づく効率的かつ高品質な運動再構成フレームワークと統合された,新しい動的ニューラル放射場である。
我々のキーとなる考え方は、動的放射場を、観測と予測という2つの知識源に基づいて時間的に異なる状態が推定される動的システムとしてモデル化することである。
我々のKFD-NeRFは、同等の計算時間と最先端の視線合成性能で、徹底的な訓練を施した類似または優れた性能を示す。
論文 参考訳(メタデータ) (2024-07-18T05:48:24Z) - Deep-learning Optical Flow Outperforms PIV in Obtaining Velocity Fields from Active Nematics [2.0722018747867863]
MTをベースとした能動ネマティクスの自発的な流れを異なるラベル付け条件下で定量化する光学フローの能力を評価する。
DLOFは高密度にラベル付けされた試料に対して、PIVよりもはるかに正確な速度場を生成する。
本研究は, 活性, ソフト, バイオ物理系の多種多様な流れを計測するための汎用ツールとしてDLOFを確立した。
論文 参考訳(メタデータ) (2024-04-23T20:20:00Z) - Motion-adaptive Separable Collaborative Filters for Blind Motion Deblurring [71.60457491155451]
様々な動きによって生じる画像のぼかしを除去することは、難しい問題である。
本研究では,動き適応型分離型協調フィルタと呼ばれる実世界のデブロアリングフィルタモデルを提案する。
本手法は,実世界の動きのぼかし除去に有効な解法を提供し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-04-19T19:44:24Z) - Information-Based Sensor Placement for Data-Driven Estimation of
Unsteady Flows [0.0]
本稿では,データ駆動型フローフィールド推定のためのセンサ選択フレームワークを提案する。
このフレームワークは、データ駆動モデリング、定常カルマンフィルタ設計、およびセンサーの逐次選択のためのスパーシフィケーション技術を組み合わせている。
論文 参考訳(メタデータ) (2023-03-22T02:00:51Z) - SCFlow: Optical Flow Estimation for Spiking Camera [50.770803466875364]
スパイキングカメラは、特に高速シーンのモーション推定において、現実の応用において大きな可能性を秘めている。
光フロー推定は画像ベースおよびイベントベースの視覚において顕著な成功を収めているが、既存の手法はスパイクカメラからのスパイクストリームに直接適用することはできない。
本稿では、スパイキングカメラのための光フロー推定のための新しいディープラーニングパイプラインSCFlowについて述べる。
論文 参考訳(メタデータ) (2021-10-08T06:16:45Z) - Depth-conditioned Dynamic Message Propagation for Monocular 3D Object
Detection [86.25022248968908]
モノラル3Dオブジェクト検出の問題を解決するために、コンテキストと奥行きを認識する特徴表現を学びます。
KITTIベンチマークデータセットにおける単眼的アプローチにおける最新の結果を示す。
論文 参考訳(メタデータ) (2021-03-30T16:20:24Z) - Neural Particle Image Velocimetry [4.416484585765027]
本稿では,この問題に適応した畳み込みニューラルネットワーク,すなわちボリューム対応ネットワーク(VCN)を紹介する。
ネットワークは、合成データと実フローデータの両方を含むデータセット上で、徹底的にトレーニングされ、テストされる。
解析の結果,提案手法は現場における他の最先端手法と同等の精度を保ちながら,効率の向上を図っている。
論文 参考訳(メタデータ) (2021-01-28T12:03:39Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。