論文の概要: Machine Learning Based Object Tracking
- arxiv url: http://arxiv.org/abs/2401.07929v1
- Date: Mon, 15 Jan 2024 19:46:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:59:00.839876
- Title: Machine Learning Based Object Tracking
- Title(参考訳): 機械学習に基づく物体追跡
- Authors: Md Rakibul Karim Akanda, Joshua Reynolds, Treylin Jackson, and Milijah
Gray
- Abstract要約: 著者たちはOpen Computer Visionを使ってオブジェクトの周りにさまざまな関心を寄せることができた。
次に、2つのサーボモーターを同時に動作させながら、物体のトラッキングを維持するために追跡アルゴリズムが使われている。
- 参考スコア(独自算出の注目度): 0.6466206145151128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning based object detection as well as tracking that object have
been performed in this paper. The authors were able to set a range of interest
(ROI) around an object using Open Computer Vision, better known as OpenCV. Next
a tracking algorithm has been used to maintain tracking on an object while
simultaneously operating two servo motors to keep the object centered in the
frame. Detailed procedure and code are included in this paper.
- Abstract(参考訳): 本論文では、機械学習に基づく物体検出と、その物体の追跡を行う。
著者らはOpenCVとして知られるOpen Computer Visionを使ってオブジェクトの周りにさまざまな関心(ROI)を設定することができた。
次に、トラッキングアルゴリズムを使用してオブジェクトのトラッキングを維持し、同時に2つのサーボモータを動作させ、オブジェクトをフレームの中心に保つ。
詳細な手順とコードを本論文に記載する。
関連論文リスト
- VOVTrack: Exploring the Potentiality in Videos for Open-Vocabulary Object Tracking [61.56592503861093]
オープンボキャブラリオブジェクト検出(OVD)とマルチオブジェクトトラッキング(MOT)の複雑さを両立させる。
OVMOT の既存のアプローチは、OVD と MOT の方法論を別個のモジュールとして統合することが多く、主に画像中心のレンズによる問題に焦点を当てている。
VOVTrackは、MOTとビデオ中心トレーニングに関連するオブジェクト状態を統合する新しい手法であり、ビデオオブジェクト追跡の観点からこの問題に対処する。
論文 参考訳(メタデータ) (2024-10-11T05:01:49Z) - Leveraging Object Priors for Point Tracking [25.030407197192]
ポイントトラッキングは、コンピュータビジョンにおける基本的な問題であり、多くのARやロボット工学への応用がある。
本稿では,対象の先行点に注意を向ける新たな対象性正規化手法を提案する。
提案手法は,3点追跡ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T16:48:42Z) - End-to-End 3D Object Detection using LiDAR Point Cloud [0.0]
本稿では,LiDAR点雲の新たなエンコーディングを用いて,自律走行車に近いクラスの位置を推定する手法を提案する。
出力は、シーン内のオブジェクトの位置と向きを3D境界ボックスとシーンオブジェクトのラベルで予測する。
論文 参考訳(メタデータ) (2023-12-24T00:52:14Z) - Follow Anything: Open-set detection, tracking, and following in
real-time [89.83421771766682]
我々は,物体をリアルタイムで検出,追跡,追跡するロボットシステムを提案する。
私たちのアプローチは、何でも従う"(FAn)と呼ばれ、オープンな語彙とマルチモーダルモデルです。
FAnは軽量(6~8GB)グラフィックカードでラップトップにデプロイでき、毎秒6~20フレームのスループットを実現する。
論文 参考訳(メタデータ) (2023-08-10T17:57:06Z) - SalienDet: A Saliency-based Feature Enhancement Algorithm for Object
Detection for Autonomous Driving [160.57870373052577]
未知の物体を検出するために,サリエンデット法(SalienDet)を提案する。
我々のSaienDetは、オブジェクトの提案生成のための画像機能を強化するために、サリエンシに基づくアルゴリズムを利用している。
オープンワールド検出を実現するためのトレーニングサンプルセットにおいて、未知のオブジェクトをすべてのオブジェクトと区別するためのデータセットレザベリングアプローチを設計する。
論文 参考訳(メタデータ) (2023-05-11T16:19:44Z) - Once Detected, Never Lost: Surpassing Human Performance in Offline LiDAR
based 3D Object Detection [50.959453059206446]
本稿では,高性能なオフラインLiDARによる3Dオブジェクト検出を実現することを目的とする。
まず、経験豊富な人間のアノテータが、トラック中心の視点でオブジェクトに注釈を付けるのを観察する。
従来のオブジェクト中心の視点ではなく,トラック中心の視点で高性能なオフライン検出器を提案する。
論文 参考訳(メタデータ) (2023-04-24T17:59:05Z) - TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM [0.0]
3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
論文 参考訳(メタデータ) (2022-10-28T15:23:50Z) - Semi-automatic 3D Object Keypoint Annotation and Detection for the
Masses [42.34064154798376]
本稿では,標準的なロボットアームに装着した手首カメラを用いて,データセットの収集とラベル付けを行う半自動方式を提案する。
動作中の3Dオブジェクトのキーポイント検出器を取得して、わずか数時間でデータ収集、アノテーション、学習の全プロセスを実行できます。
論文 参考訳(メタデータ) (2022-01-19T15:41:54Z) - Multiple Object Trackers in OpenCV: A Benchmark [0.0]
本稿では,OpenCVで実装された7つのトラッカーをMOT20データセットに対して評価する。
結果は、MOTA(Multiple Object Tracking Accuracy)とMOTP(Multiple Object Tracking Precision)のメトリクスに基づいて示される。
論文 参考訳(メタデータ) (2021-10-11T09:12:02Z) - End-to-end Deep Object Tracking with Circular Loss Function for Rotated
Bounding Box [68.8204255655161]
Transformer Multi-Head Attentionアーキテクチャに基づく新しいエンドツーエンドのディープラーニング手法を紹介します。
また,境界ボックスの重なりと向きを考慮に入れた新しいタイプの損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-17T17:29:29Z) - MVLidarNet: Real-Time Multi-Class Scene Understanding for Autonomous
Driving Using Multiple Views [60.538802124885414]
マルチビューLidarNet(MVLidarNet)は,多層物体検出とドライビング空間分割のための2段階のディープニューラルネットワークである。
MVLidarNetは、単一のLiDARスキャンを入力として、乾燥可能な空間を同時に決定しながら、オブジェクトを検出し、分類することができる。
我々は、KITTIとはるかに大きな内部データセットの両方で結果を示し、その方法が桁違いにスケールできることを実証する。
論文 参考訳(メタデータ) (2020-06-09T21:28:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。