論文の概要: Global Instance Tracking: Locating Target More Like Humans
- arxiv url: http://arxiv.org/abs/2202.13073v1
- Date: Sat, 26 Feb 2022 06:16:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 16:42:53.822848
- Title: Global Instance Tracking: Locating Target More Like Humans
- Title(参考訳): グローバルなインスタンス追跡:人間のようなターゲットを見つける
- Authors: Shiyu Hu, Xin Zhao, Lianghua Huang, Kaiqi Huang
- Abstract要約: 人間の視覚システムの本質的な能力であるターゲットトラッキングは、コンピュータビジョンタスクによってシミュレートされている。
既存のトラッカーは、アスターの実験環境では良好に動作しますが、閉塞や高速動作といった課題で失敗します。
本稿では,ビデオ中の任意のユーザ指定インスタンスを検索するグローバルインスタンス追跡(GIT)タスクを提案する。
- 参考スコア(独自算出の注目度): 47.99395323689126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Target tracking, the essential ability of the human visual system, has been
simulated by computer vision tasks. However, existing trackers perform well in
austere experimental environments but fail in challenges like occlusion and
fast motion. The massive gap indicates that researches only measure tracking
performance rather than intelligence. How to scientifically judge the
intelligence level of trackers? Distinct from decision-making problems, lacking
three requirements (a challenging task, a fair environment, and a scientific
evaluation procedure) makes it strenuous to answer the question. In this
article, we first propose the global instance tracking (GIT) task, which is
supposed to search an arbitrary user-specified instance in a video without any
assumptions about camera or motion consistency, to model the human visual
tracking ability. Whereafter, we construct a high-quality and large-scale
benchmark VideoCube to create a challenging environment. Finally, we design a
scientific evaluation procedure using human capabilities as the baseline to
judge tracking intelligence. Additionally, we provide an online platform with
toolkit and an updated leaderboard. Although the experimental results indicate
a definite gap between trackers and humans, we expect to take a step forward to
generate authentic human-like trackers. The database, toolkit, evaluation
server, and baseline results are available at http://videocube.aitestunion.com.
- Abstract(参考訳): 人間の視覚システムの本質的な能力であるターゲットトラッキングは、コンピュータビジョンタスクによってシミュレートされている。
しかし、既存のトラッカーはaustereの実験環境ではうまく機能するが、閉塞や速い動きといった課題では失敗する。
この大きなギャップは、研究が知性よりも追跡性能を測るだけであることを示している。
トラッカーの知能レベルを科学的に判断する方法?
3つの要件(挑戦的なタスク、公正な環境、科学的評価手順)が欠如している意思決定問題とは別物である。
本稿では,まず,映像中の任意のユーザ指定インスタンスをカメラや動きの一貫性を仮定せずに検索し,人間の視覚的トラッキング能力をモデル化するグローバルインスタンス追跡(GIT)タスクを提案する。
その後,高品質・大規模ベンチマーク映像キューブを構築し,課題環境を構築した。
最後に,人間の能力をベースラインとして,トラッキングインテリジェンスを判断する科学的評価手順を設計する。
さらに、ツールキットと新しいリーダーボードを備えたオンラインプラットフォームも提供しています。
実験結果は、トラッカーと人間の間に明確なギャップがあることを示しているが、本物の人間ライクなトラッカーを作るには一歩先を行くだろう。
データベース、ツールキット、評価サーバ、ベースラインの結果はhttp://videocube.aitestunion.comで公開されている。
関連論文リスト
- BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Person Monitoring by Full Body Tracking in Uniform Crowd Environment [10.71804432329509]
中東では、均一な群衆環境が最先端のトラッカーに挑戦する規範である。
本研究では,一様群集環境下で,ビデオ毎に1つの特定のターゲットを持つ注釈付きデータセットを開発する。
このデータセットは、最先端のトラッカーの評価と微調整に使用された。
論文 参考訳(メタデータ) (2022-09-02T21:21:47Z) - Robot Person Following in Uniform Crowd Environment [13.708992331117281]
人追跡ロボットには、セキュリティ、高齢者介護、社交ロボットなど、多くの応用がある。
本研究では,ロバストでリアルタイムなオブジェクトトラッカーを開発することにより,タスク追従者のロボットの知覚能力の向上に焦点をあてる。
我々は,新しいRGB-Dトラッカーを備えた新しいロボット人追跡システムであるDep Tracking with RGB-D (DTRD)を提案する。
論文 参考訳(メタデータ) (2022-05-21T10:20:14Z) - Single Object Tracking Research: A Survey [44.24280758718638]
本稿では,過去10年間に最も人気の高い追跡フレームワーク2つについて,その理論的根拠と作業について述べる。
本稿では,異なるネットワーク構造に分類したディープラーニングに基づく追跡手法を提案する。
また、追跡問題の課題に対処するための古典的な戦略についても紹介する。
論文 参考訳(メタデータ) (2022-04-25T02:59:15Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - Benchmarking high-fidelity pedestrian tracking systems for research,
real-time monitoring and crowd control [55.41644538483948]
実生活環境における高忠実な歩行者追跡は,群集動態研究において重要なツールである。
この技術が進歩するにつれて、社会においても益々有用になってきている。
歩行者追跡技術の研究と技術に成功させるためには、正確さの検証とベンチマークが不可欠である。
我々は、プライバシーに配慮した歩行者追跡技術のためのベンチマークスイートをコミュニティのオープンスタンダードに向けて提示し、議論する。
論文 参考訳(メタデータ) (2021-08-26T11:45:26Z) - Tracking Without Re-recognition in Humans and Machines [12.591847867999636]
我々は、ビジュアルトラッキングのための最先端のディープニューラルネットワークが、同じことができるかどうか検討する。
PathTrackerは人間の観察者や機械に対象物を追跡するための視覚的課題である。
動作手がかりに基づく物体追跡に関係した生体脳の回路機構をモデル化する。
論文 参考訳(メタデータ) (2021-05-27T17:56:37Z) - MOTChallenge: A Benchmark for Single-Camera Multiple Target Tracking [72.76685780516371]
単カメラ多目的追跡(MOT)のためのベンチマークMOTChallengeを提案する。
このベンチマークは、歩行者がトラッキングコミュニティで最も研究されているオブジェクトであるため、複数の人を追跡することに重点を置いている。
我々は,最先端トラッカーの分類と広い誤差解析を行う。
論文 参考訳(メタデータ) (2020-10-15T06:52:16Z) - Kalman Filter Based Multiple Person Head Tracking [10.235946073664818]
最先端のアプローチは、ディープラーニングに基づく視覚表現に依存している。
我々は、人間追跡のためのシンプルで効果的なターゲット表現を考案した。
論文 参考訳(メタデータ) (2020-06-11T00:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。