論文の概要: Lattice Boltzmann Model for Learning Real-World Pixel Dynamicity
- arxiv url: http://arxiv.org/abs/2509.16527v1
- Date: Sat, 20 Sep 2025 04:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.838207
- Title: Lattice Boltzmann Model for Learning Real-World Pixel Dynamicity
- Title(参考訳): 実世界画素の動的学習のための格子ボルツマンモデル
- Authors: Guangze Zheng, Shijie Lin, Haobo Zuo, Si Si, Ming-Shan Wang, Changhong Fu, Jia Pan,
- Abstract要約: この研究は、視覚追跡のための実世界のピクセル動態を学習するためのLattice Boltzmann Model (LBM)を提案する。
LBMは動的ピクセル格子に視覚表現を分解し、衝突ストリームプロセスを通じて画素運動状態を解決する。
既存の手法と比較すると、LBMはオンラインおよびリアルタイムに実用的な適用性を示す。
- 参考スコア(独自算出の注目度): 21.760291945557828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes the Lattice Boltzmann Model (LBM) to learn real-world pixel dynamicity for visual tracking. LBM decomposes visual representations into dynamic pixel lattices and solves pixel motion states through collision-streaming processes. Specifically, the high-dimensional distribution of the target pixels is acquired through a multilayer predict-update network to estimate the pixel positions and visibility. The predict stage formulates lattice collisions among the spatial neighborhood of target pixels and develops lattice streaming within the temporal visual context. The update stage rectifies the pixel distributions with online visual representations. Compared with existing methods, LBM demonstrates practical applicability in an online and real-time manner, which can efficiently adapt to real-world visual tracking tasks. Comprehensive evaluations of real-world point tracking benchmarks such as TAP-Vid and RoboTAP validate LBM's efficiency. A general evaluation of large-scale open-world object tracking benchmarks such as TAO, BFT, and OVT-B further demonstrates LBM's real-world practicality.
- Abstract(参考訳): この研究は、視覚追跡のための実世界のピクセル動態を学習するLattice Boltzmann Model (LBM)を提案する。
LBMは動的ピクセル格子に視覚表現を分解し、衝突ストリームプロセスを通じて画素運動状態を解決する。
具体的には、対象画素の高次元分布を多層予測更新ネットワークを介して取得し、画素位置と可視性を推定する。
予測段階は、対象画素の空間近傍における格子衝突を定式化し、時間的視覚的文脈内で格子流を発達させる。
更新ステージは、オンライン視覚表現で画素分布を修正する。
既存の手法と比較して、LBMは実世界の視覚的トラッキングタスクに効率的に適応できる、オンラインおよびリアルタイムに実用的な適用性を示す。
TAP-VidやRoboTAPといった実世界の点追跡ベンチマークの総合的な評価は、LBMの効率性を検証する。
TAO、BFT、OVT-Bなどの大規模オープンワールドオブジェクト追跡ベンチマークの一般的な評価は、LBMの現実的実用性をさらに証明している。
関連論文リスト
- Bayesian Active Learning for Semantic Segmentation [9.617769135242973]
スパースピクセルレベルのアノテーションに基づくベイズ能動的学習フレームワークを提案する。
BalEntは、予測された限界化確率分布とピクセルラベルの間の情報をキャプチャする。
私たちは、Cityscapes、Camvid、ADE20K、VOC2012ベンチマークデータセットのために提案したアクティブラーニングフレームワークをトレーニングします。
論文 参考訳(メタデータ) (2024-08-03T07:26:10Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - MPI-Flow: Learning Realistic Optical Flow with Multiplane Images [18.310665144874775]
実世界の画像からリアルな光フローデータセットを生成する。
高度に現実的な新しい画像を生成するため,単視点画像から多平面画像(MPI)と呼ばれる層状深度表現を構築した。
動きの現実性を確保するため,MPI内のカメラと動的物体の動きを分離できる独立な物体運動モジュールを提案する。
論文 参考訳(メタデータ) (2023-09-13T04:31:00Z) - Generalizing Event-Based Motion Deblurring in Real-World Scenarios [62.995994797897424]
イベントベースの動作遅延は、低レイテンシイベントを活用することで、有望な結果を示している。
本研究では,フレキシブルな入力空間スケールを実現するとともに,時間スケールの異なる動きのぼかしから学習できるスケール対応ネットワークを提案する。
次に,実世界のデータ分布に適合する2段階の自己教師型学習手法を開発した。
論文 参考訳(メタデータ) (2023-08-11T04:27:29Z) - HVC-Net: Unifying Homography, Visibility, and Confidence Learning for
Planar Object Tracking [5.236567998857959]
我々は、ホモグラフィ、可視性、信頼性を共同で検討する統合畳み込みニューラルネットワーク(CNN)モデルを提案する。
提案手法は,パブリックPOTおよびTMTデータセットの最先端手法よりも優れている。
論文 参考訳(メタデータ) (2022-09-19T11:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。