論文の概要: TrackStudio: An Integrated Toolkit for Markerless Tracking
- arxiv url: http://arxiv.org/abs/2511.07624v2
- Date: Wed, 19 Nov 2025 17:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.415099
- Title: TrackStudio: An Integrated Toolkit for Markerless Tracking
- Title(参考訳): TrackStudio: マーカレストラッキングのための統合ツールキット
- Authors: Hristo Dimitrov, Giulia Dominijanni, Viktorija Pavalkyte, Tamar R. Makin,
- Abstract要約: アクセス可能で統合されたソリューションにはギャップがあり、多様な設定にまたがる非専門家の十分なトラッキングを提供する。
TrackStudioは、既存のオープンソースツールを単一のGUIベースのパイプラインに統合することによって、このギャップに対処するために開発された。
自動2Dおよび3Dトラッキング、キャリブレーション、前処理、特徴抽出、可視化を、プログラミングスキルを必要とせずに提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Markerless motion tracking has advanced rapidly in the past 10 years and currently offers powerful opportunities for behavioural, clinical, and biomechanical research. While several specialised toolkits provide high performance for specific tasks, using existing tools still requires substantial technical expertise. There remains a gap in accessible, integrated solutions that deliver sufficient tracking for non-experts across diverse settings. TrackStudio was developed to address this gap by combining established open-source tools into a single, modular, GUI-based pipeline that works out of the box. It provides automatic 2D and 3D tracking, calibration, preprocessing, feature extraction, and visualisation without requiring any programming skills. We supply a user guide with practical advice for video acquisition, synchronisation, and setup, alongside documentation of common pitfalls and how to avoid them. To validate the toolkit, we tested its performance across three environments using either low-cost webcams or high-resolution cameras, including challenging conditions for body position, lightning, and space and obstructions. Across 76 participants, average inter-frame correlations exceeded 0.98 and average triangulation errors remained low (<13.6mm for hand tracking), demonstrating stable and consistent tracking. We further show that the same pipeline can be extended beyond hand tracking to other body and face regions. TrackStudio provides a practical, accessible route into markerless tracking for researchers or laypeople who need reliable performance without specialist expertise.
- Abstract(参考訳): マーカーレスモーショントラッキングは過去10年間で急速に進歩し、現在は行動学的、臨床的、生体力学的研究の強力な機会を提供している。
いくつかの専門化されたツールキットは特定のタスクに対して高いパフォーマンスを提供するが、既存のツールを使用するには相当な技術的専門知識が必要である。
さまざまな設定にまたがって、非専門家の十分なトラッキングを提供する、アクセス可能で統合されたソリューションにはまだギャップがあります。
TrackStudioは、既存のオープンソースツールを1つのモジュール型のGUIベースのパイプラインに統合することで、このギャップに対処するために開発された。
自動2Dおよび3Dトラッキング、キャリブレーション、前処理、特徴抽出、可視化を、プログラミングスキルを必要とせずに提供する。
ユーザガイドにビデオの取得、同期、セットアップの実践的なアドバイスと、共通の落とし穴のドキュメント、それらの回避方法を提供する。
このツールキットの有効性を検証するために,低コストのウェブカメラや高解像度カメラを用いて,身体の位置,雷,空間,障害物の困難な条件を含む3つの環境において,その性能を検証した。
76名中, フレーム間の平均相関は0.98を超え, 平均三角法誤差は低く(手追跡では13.6mm), 安定かつ一貫した追跡を示した。
さらに、同じパイプラインを手動追跡を越えて他の身体や顔領域に拡張できることも示しています。
TrackStudioは、専門家の専門知識なしに信頼性の高いパフォーマンスを必要とする研究者や平民のために、マーカーレス追跡への実用的でアクセスしやすいルートを提供する。
関連論文リスト
- SpatialTrackerV2: 3D Point Tracking Made Easy [73.0350898700048]
SpaceTrackerV2はモノクロビデオのフィードフォワード3Dポイントトラッキング手法である。
これは、世界空間の3Dモーションをシーン幾何学、カメラエゴモーション、ピクセルワイドオブジェクトモーションに分解する。
このような異種データから幾何学と運動を共同で学習することで、SpatialTrackerV2は既存の3Dトラッキング方法よりも30%優れています。
論文 参考訳(メタデータ) (2025-07-16T17:59:03Z) - SynCL: A Synergistic Training Strategy with Instance-Aware Contrastive Learning for End-to-End Multi-Camera 3D Tracking [34.90147791481045]
SynCLは、検出と追跡のためのマルチタスク学習を共用するために設計された、新しいプラグアンドプレイのシナジスティックトレーニング戦略である。
重み付きクロスアテンションに基づくデコーダのためのタスク固有ハイブリッドマッチングモジュールを提案する。
また、追跡クエリに対する自己中心的な注意の障壁を突破するために、インスタンス対応のContrastive Learningを導入します。
論文 参考訳(メタデータ) (2024-11-11T08:18:49Z) - DELTA: Dense Efficient Long-range 3D Tracking for any video [82.26753323263009]
DELTAは3次元空間内のすべてのピクセルを効率よく追跡し,ビデオ全体の正確な動き推定を可能にする手法である。
提案手法では,低分解能追跡のためのグローバルアテンション機構と,高分解能予測を実現するためのトランスフォーマーベースアップサンプラーを併用する。
提案手法は,3次元空間における細粒度・長期動作追跡を必要とするアプリケーションに対して,ロバストなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-31T17:59:01Z) - SurgiTrack: Fine-Grained Multi-Class Multi-Tool Tracking in Surgical Videos [2.3810490830445183]
この研究は、外科的ツールトラッキングの新しい標準を設定し、最小侵襲の手術に対してより適応的で正確な支援を行うためのダイナミックな軌跡を提供する。
本稿では,ツール検出にYOLOv7を活用する新しいディープラーニング手法であるSurgiTrackを提案する。
論文 参考訳(メタデータ) (2024-05-30T17:59:10Z) - CoTracker: It is Better to Track Together [70.63040730154984]
CoTrackerは、長いビデオシーケンスで多数の2Dポイントを追跡するトランスフォーマーベースのモデルである。
関節トラッキングはトラッキング精度とロバスト性を大幅に改善し、CoTrackerはカメラビューの外側に隠された点や点を追跡することができる。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control [55.41644538483948]
実生活環境における高忠実な歩行者追跡は,群集動態研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になってきている。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
我々は、プライバシーに配慮した歩行者追跡技術のためのベンチマークスイートをコミュニティのオープンスタンダードに向けて提示し、議論する。
論文 参考訳(メタデータ) (2021-08-26T11:45:26Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Unsupervised Multiple Person Tracking using AutoEncoder-Based Lifted
Multicuts [11.72025865314187]
最小限の視覚的特徴とリフトマルチカットに基づく教師なし多重物体追跡手法を提案する。
提案したアノテーションを使わずにトレーニングされているにもかかわらず,我々のモデルは,歩行者追跡のための挑戦的なMOTベンチマークにおいて,競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2020-02-04T09:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。