論文の概要: Deep Learning based Virtual Point Tracking for Real-Time Target-less
Dynamic Displacement Measurement in Railway Applications
- arxiv url: http://arxiv.org/abs/2101.06702v2
- Date: Wed, 20 Jan 2021 23:02:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 20:16:42.032029
- Title: Deep Learning based Virtual Point Tracking for Real-Time Target-less
Dynamic Displacement Measurement in Railway Applications
- Title(参考訳): 鉄道における実時間目標レス動的変位計測のための深層学習に基づく仮想点追跡
- Authors: Dachuan Shi, Eldar Sabanovic, Luca Rizzetto, Viktor Skrickij, Roberto
Oliverio, Nadia Kaviani, Yunguang Ye, Gintautas Bureika, Stefano Ricci,
Markus Hecht
- Abstract要約: ディープラーニング技術とドメイン知識を組み込んだリアルタイムターゲットレス動的変位測定のための仮想ポイントトラッキングを提案します。
そこで本研究では, 運転中にレールの車輪の水平変位を計測した鉄道への適用例を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the application of computer-vision based displacement measurement, an
optical target is usually required to prove the reference. In the case that the
optical target cannot be attached to the measuring objective, edge detection,
feature matching and template matching are the most common approaches in
target-less photogrammetry. However, their performance significantly relies on
parameter settings. This becomes problematic in dynamic scenes where
complicated background texture exists and varies over time. To tackle this
issue, we propose virtual point tracking for real-time target-less dynamic
displacement measurement, incorporating deep learning techniques and domain
knowledge. Our approach consists of three steps: 1) automatic calibration for
detection of region of interest; 2) virtual point detection for each video
frame using deep convolutional neural network; 3) domain-knowledge based rule
engine for point tracking in adjacent frames. The proposed approach can be
executed on an edge computer in a real-time manner (i.e. over 30 frames per
second). We demonstrate our approach for a railway application, where the
lateral displacement of the wheel on the rail is measured during operation. We
also implement an algorithm using template matching and line detection as the
baseline for comparison. The numerical experiments have been performed to
evaluate the performance and the latency of our approach in the harsh railway
environment with noisy and varying backgrounds.
- Abstract(参考訳): コンピュータビジョンに基づく変位測定の応用では、通常、参照を証明するために光学的目標が必要となる。
光ターゲットが測定対象に装着できない場合、エッジ検出、特徴マッチング、テンプレートマッチングがターゲットレスフォトグラムの最も一般的なアプローチである。
しかし、その性能はパラメータの設定に大きく依存する。
これは複雑な背景テクスチャが存在し、時間とともに変化する動的シーンでは問題となる。
この問題に対処するために,ディープラーニング技術とドメイン知識を取り入れたリアルタイムターゲットレス動的変位計測のための仮想点追跡を提案する。
提案手法は,1)関心領域検出のための自動校正,2)深部畳み込みニューラルネットワークを用いた各ビデオフレームの仮想点検出,3)隣接フレームにおける点追跡のためのドメイン知識ベースルールエンジンの3段階からなる。
提案手法はエッジコンピュータ上でリアルタイムに実行できる(例: エッジコンピュータ)。
毎秒30フレーム以上)。
そこで本研究では, 運転中にレールの車輪の水平変位を計測した鉄道への適用例を示す。
また,比較基準としてテンプレートマッチングと線検出を用いたアルゴリズムを実装した。
本研究は, 騒音, 背景の異なる厳しい鉄道環境下でのアプローチの性能と遅延を評価するため, 数値実験を行った。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - TivNe-SLAM: Dynamic Mapping and Tracking via Time-Varying Neural Radiance Fields [0.1227734309612871]
本稿では,動的シーンの追跡と再構成を行うための時間変化表現を提案する。
トラッキングプロセスとマッピングプロセスという2つのプロセスは、当社のフレームワークで同時に管理されます。
従来のNeRFベースの動的SLAMシステムと比較すると,提案手法はトラッキングとマッピングの両面で競合する結果が得られることが検証された。
論文 参考訳(メタデータ) (2023-10-29T06:10:46Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - DirectTracker: 3D Multi-Object Tracking Using Direct Image Alignment and
Photometric Bundle Adjustment [41.27664827586102]
直接法は視覚計測とSLAMの応用において優れた性能を示した。
本研究では,3次元物体検出のための短期追跡とスライディングウインドウ光度束調整のための直像アライメントを効果的に組み合わせたフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T17:40:22Z) - DeepScale: An Online Frame Size Adaptation Framework to Accelerate
Visual Multi-object Tracking [8.878656943106934]
DeepScaleは、追跡スループットを高速化するモデルに依存しないフレームサイズ選択アプローチである。
フレームサイズを実行時に適応させることで、トラッキング精度と速度の適切なトレードオフを見つけることができる。
最先端のトラッカーであるDeepScale++と比較して、DeepScaleの亜種であるDeepScale++は、適度な劣化だけで1.57倍の高速化を実現している。
論文 参考訳(メタデータ) (2021-07-22T00:12:58Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - Tracking from Patterns: Learning Corresponding Patterns in Point Clouds
for 3D Object Tracking [34.40019455462043]
本稿では,時間点雲データから3次元オブジェクト対応を学習し,対応パターンから動き情報を推測する。
提案手法は,KITTIと大規模Nuscenesデータセットの双方において,既存の3次元追跡手法を超えている。
論文 参考訳(メタデータ) (2020-10-20T06:07:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。