論文の概要: FastTrack: an open-source software for tracking varying numbers of
deformable objects
- arxiv url: http://arxiv.org/abs/2011.06837v1
- Date: Fri, 13 Nov 2020 09:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:28:25.767528
- Title: FastTrack: an open-source software for tracking varying numbers of
deformable objects
- Title(参考訳): FastTrack: さまざまな変形可能なオブジェクトを追跡するオープンソースソフトウェア
- Authors: Benjamin Gallois and Rapha\"el Candelier
- Abstract要約: 生体・身体の異なる2次元映画のデータベースを作成した。
私たちはFastTrackという,汎用的で最適化された,クロスプラットフォームで,インストールと使用が容易なセルフアップデートソフトウェアを開発しました。
ベンチマークによると、FastTrackは最先端のトラッキングアルゴリズムよりも桁違いに高速である。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analyzing the dynamical properties of mobile objects requires to extract
trajectories from recordings, which is often done by tracking movies. We
compiled a database of two-dimensional movies for very different biological and
physical systems spanning a wide range of length scales and developed a
general-purpose, optimized, open-source, cross-platform, easy to install and
use, self-updating software called FastTrack. It can handle a changing number
of deformable objects in a region of interest, and is particularly suitable for
animal and cell tracking in two-dimensions. Furthermore, we introduce the
probability of incursions as a new measure of a movie's trackability that
doesn't require the knowledge of ground truth trajectories, since it is
resilient to small amounts of errors and can be computed on the basis of an ad
hoc tracking. We also leveraged the versatility and speed of FastTrack to
implement an iterative algorithm determining a set of nearly-optimized tracking
parameters -- yet further reducing the amount of human intervention -- and
demonstrate that FastTrack can be used to explore the space of tracking
parameters to optimize the number of swaps for a batch of similar movies. A
benchmark shows that FastTrack is orders of magnitude faster than
state-of-the-art tracking algorithms, with a comparable tracking accuracy. The
source code is available under the GNU GPLv3 at
https://github.com/FastTrackOrg/FastTrack and pre-compiled binaries for
Windows, Mac and Linux are available at http://www.fasttrack.sh.
- Abstract(参考訳): 移動体の動的特性を分析するには、記録から軌跡を抽出する必要がある。
幅広い長さのスケールにまたがる全く異なる生体・物理システムのための2次元映画データベースをコンパイルし,汎用,最適化,オープンソース,クロスプラットフォーム,インストールおよび使用の容易な,fasttrackと呼ばれる自己更新ソフトウェアを開発した。
興味のある領域における変形可能な物体の数の変化を処理でき、特に2次元での動物や細胞追跡に適している。
さらに,本研究では,少量のエラーに対して回復力があり,アドホックトラッキングに基づいて計算できるため,映画の追跡可能性の新たな尺度として,地中真実の軌跡の知識を必要としないことを紹介する。
また、fasttrackの汎用性と速度を利用して、ほぼ最適化されたトラッキングパラメーターのセットを決定する反復的アルゴリズム -- しかし人間の介入の量を更に削減する -- を実装し、fasttrackが追跡パラメータの空間を探索し、類似した映画のスワップ数を最適化するために使用できることを実証した。
ベンチマークによると、FastTrackは最先端のトラッキングアルゴリズムよりも桁違いに高速で、追跡精度は同等である。
ソースコードはgnu gplv3のhttps://github.com/fasttrackorg/fasttrackで利用可能であり、windows、mac、linux用のコンパイル済みバイナリはhttp://www.fasttrack.shで利用可能である。
関連論文リスト
- Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Dense Optical Tracking: Connecting the Dots [82.79642869586587]
DOTは、ビデオにおけるポイントトラッキングの問題を解決するための、新しくてシンプルで効率的な方法である。
OmniMotionのような高度な"ユニバーサルトラッカー"を上回り、CoTrackerのような最良のポイントトラッキングアルゴリズムと同等か、あるいはそれ以上の精度で、DOTが現在の光フロー技術よりもはるかに正確であることを示す。
論文 参考訳(メタデータ) (2023-12-01T18:59:59Z) - CoTracker: It is Better to Track Together [70.63040730154984]
CoTrackerは、長いビデオシーケンスで多数の2Dポイントを追跡するトランスフォーマーベースのモデルである。
関節トラッキングはトラッキング精度とロバスト性を大幅に改善し、CoTrackerはカメラビューの外側に隠された点や点を追跡することができる。
論文 参考訳(メタデータ) (2023-07-14T21:13:04Z) - Real-time Online Multi-Object Tracking in Compressed Domain [66.40326768209]
近年,Multi-Object Tracking (MOT) 手法が望まれるトラッキング性能を実現している。
隣接するフレームが極めて関連性が高く冗長であるという事実に着想を得て、フレームをキーフレームと非キーフレームに分割する。
私たちのトラッカーは、同等のトラッカー性能を維持しながら、約6倍高速です。
論文 参考訳(メタデータ) (2022-04-05T09:47:24Z) - Context-aware Visual Tracking with Joint Meta-updating [11.226947525556813]
本稿では,シーケンス全体に沿った情報を活用することで,両ブランチを共同でメタ更新する,表現空間上のトラッカーを最適化するコンテキスト認識追跡モデルを提案する。
提案手法は,VOT2018におけるEAOスコアの0.514を40FPSの速度で達成し,基礎となるトラッカーの精度とロバスト性を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-04T14:16:00Z) - Efficient Visual Tracking with Exemplar Transformers [98.62550635320514]
本稿では,リアルタイム物体追跡のための効率的な変換器であるExemplar Transformerを紹介する。
Exemplar Transformerレイヤを組み込んだビジュアルトラッカーであるE.T.Trackは、CPU上で47fpsで動作する。
これは、他のトランスモデルよりも最大8倍高速である。
論文 参考訳(メタデータ) (2021-12-17T18:57:54Z) - DeepScale: An Online Frame Size Adaptation Framework to Accelerate
Visual Multi-object Tracking [8.878656943106934]
DeepScaleは、追跡スループットを高速化するモデルに依存しないフレームサイズ選択アプローチである。
フレームサイズを実行時に適応させることで、トラッキング精度と速度の適切なトレードオフを見つけることができる。
最先端のトラッカーであるDeepScale++と比較して、DeepScaleの亜種であるDeepScale++は、適度な劣化だけで1.57倍の高速化を実現している。
論文 参考訳(メタデータ) (2021-07-22T00:12:58Z) - LightTrack: Finding Lightweight Neural Networks for Object Tracking via
One-Shot Architecture Search [104.84999119090887]
ニューラルアーキテクチャサーチ(NAS)を用いて、より軽量で効率的なオブジェクトトラッカーを設計するLightTrackを提案する。
総合的な実験は、LightTrackが効果的であることを示している。
SiamRPN++やOceanといった手作りのSOTAトラッカーよりも優れたパフォーマンスを実現するトラッカーを見つけることができる。
論文 参考訳(メタデータ) (2021-04-29T17:55:24Z) - STMTrack: Template-free Visual Tracking with Space-time Memory Networks [42.06375415765325]
テンプレート更新機構を持つ既存のトラッカーは、競争性能を達成するために、時間を要する数値最適化と複雑な手設計戦略に依存している。
本稿では,ターゲットに関する歴史的情報を十分に活用することのできる,時空メモリネットワーク上に構築した新しいトラッキングフレームワークを提案する。
具体的には、ターゲットの履歴情報を記憶して、トラッカーを現在のフレーム内の最も情報性の高い領域に集中させる新しい記憶機構を導入する。
論文 参考訳(メタデータ) (2021-04-01T08:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。