論文の概要: DMODE: Differential Monocular Object Distance Estimation Module without
Class Specific Information
- arxiv url: http://arxiv.org/abs/2210.12596v1
- Date: Sun, 23 Oct 2022 02:06:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 13:20:59.814083
- Title: DMODE: Differential Monocular Object Distance Estimation Module without
Class Specific Information
- Title(参考訳): DMODE:クラス固有情報を持たない微分単分子物体距離推定モジュール
- Authors: Pedram Agand, Michael Chang, and Mo Chen
- Abstract要約: これまでのメソッドは、主に何らかの方法でオブジェクトのクラスを知ることに依存していました。
DMODEと呼ばれるクラスに関連する情報を一切必要としない代替技術を提供する。
- 参考スコア(独自算出の注目度): 7.610468170542385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using a single camera to estimate the distances of objects reduces costs
compared to stereo-vision and LiDAR. Although monocular distance estimation has
been studied in the literature, previous methods mostly rely on knowing an
object's class in some way. This can result in deteriorated performance for
dataset with multi-class objects and objects with an undefined class. In this
paper, we aim to overcome the potential downsides of class-specific approaches,
and provide an alternative technique called DMODE that does not require any
information relating to its class. Using differential approaches, we combine
the changes in an object's size over time together with the camera's motion to
estimate the object's distance. Since DMODE is class agnostic method, it is
easily adaptable to new environments. Therefore, it is able to maintain
performance across different object detectors, and be easily adapted to new
object classes. We tested our model across different scenarios of training and
testing on the KITTI MOTS dataset's ground-truth bounding box annotations, and
bounding box outputs of TrackRCNN and EagerMOT. The instantaneous change of
bounding box sizes and camera position are then used to obtain an object's
position in 3D without measuring its detection source or class properties. Our
results show that we are able to outperform traditional alternatives methods
e.g. IPM \cite{TuohyIPM}, SVR \cite{svr}, and \cite{zhu2019learning} in test
environments with multi-class object distance detections.
- Abstract(参考訳): 1台のカメラでオブジェクトの距離を推定すると、ステレオビジョンやLiDARと比較してコストが削減される。
単眼距離推定は文献で研究されているが、従来の手法は何らかの方法で物体のクラスを知ることに依存している。
これにより、マルチクラスオブジェクトと未定義のクラスを持つオブジェクトを持つデータセットのパフォーマンスが低下する可能性がある。
本稿では,クラス固有のアプローチの潜在的な欠点を克服し,クラスに関する情報を必要としないDMODEと呼ばれる代替手法を提案する。
ディファレンシャルアプローチを用いて,物体の大きさの変化をカメラの動きと組み合わせ,物体の距離を推定する。
DMODEはクラスに依存しないため、新しい環境に容易に適応できる。
したがって、異なるオブジェクト検出器間で性能を維持することができ、新しいオブジェクトクラスに容易に適応できる。
我々は、KITTI MOTSデータセットの接地トルースバウンディングボックスアノテーションと、TrackRCNNとEagerMOTのバウンディングボックス出力に基づいて、トレーニングとテストのさまざまなシナリオでモデルをテストした。
次に、バウンディングボックスサイズとカメラ位置の瞬時変化を用いて、検出源やクラス特性を計測することなく、物体の位置を3Dで取得する。
IPM \cite{TuohyIPM} や SVR \cite{svr} や \cite{zhu2019learning} といった従来の代替手法を,多クラス物体距離検出を用いたテスト環境でより優れていることを示す。
関連論文リスト
- UNCOVER: Unknown Class Object Detection for Autonomous Vehicles in Real-time [3.5711115323107947]
トレーニング中に見たオブジェクトからクラス固有のオブジェクトではなく、ジェネリックを導入する。
実際の対象が占める予測領域の比率を計算することにより、対象性を評価することを学ぶ。
我々のソリューションであるUNCOVERは、非未知のクラスオブジェクトをリアルタイムに検出するために、リアルタイム検出と未知のオブジェクトの高速リコールを両立させるのに優れています。
論文 参考訳(メタデータ) (2024-12-05T09:04:11Z) - Few-shot Oriented Object Detection with Memorable Contrastive Learning in Remote Sensing Images [11.217630579076237]
リモートセンシングの分野では、FSOD(Few-shot Object Detection)が注目されている。
本稿では,Few-shot Oriented Object Detection with Memorable Contrastive Learning (FOMC) という,リモートセンシングのための新しいFSOD法を提案する。
具体的には、従来の水平有界ボックスの代わりに指向的有界ボックスを用いて、任意指向の空中オブジェクトのより優れた特徴表現を学習する。
論文 参考訳(メタデータ) (2024-03-20T08:15:18Z) - Monocular Per-Object Distance Estimation with Masked Object Modeling [33.59920084936913]
本稿では、Masked Image Modeling (MiM) からインスピレーションを得て、マルチオブジェクトタスクに拡張する。
Masked Object Modeling (MoM) と呼ばれる我々の戦略は、マスキング技術の新しい応用を可能にする。
我々は、標準KITTI、NuScenes、MOT Synthデータセット上の新しい参照アーキテクチャ(DistFormer)におけるMoMの有効性を評価する。
論文 参考訳(メタデータ) (2024-01-06T10:56:36Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - RLM-Tracking: Online Multi-Pedestrian Tracking Supported by Relative
Location Mapping [5.9669075749248774]
マルチオブジェクトトラッキングの問題は、公安、輸送、自動運転車、ロボティクス、人工知能を含む他の領域で広く利用されている、基本的なコンピュータビジョン研究の焦点である。
本稿では、オブジェクト textbfRelative Location Mapping (RLM) モデルと textbfTarget Region Density (TRD) モデルを含む、上記の問題に対する新しいマルチオブジェクトトラッカーを設計する。
新しいトラッカーは、オブジェクト間の位置関係の違いに敏感である。
物体の密度に応じてリアルタイムで異なる領域に低スコア検出フレームを導入することができる
論文 参考訳(メタデータ) (2022-10-19T11:37:14Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Learning to Track Object Position through Occlusion [32.458623495840904]
オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
論文 参考訳(メタデータ) (2021-06-20T22:29:46Z) - Objects are Different: Flexible Monocular 3D Object Detection [87.82253067302561]
そこで本研究では,乱れたオブジェクトを明示的に分離し,オブジェクト深度推定のための複数のアプローチを適応的に組み合わせたモノクル3次元オブジェクト検出のためのフレキシブルなフレームワークを提案する。
実験の結果,本手法はkittiベンチマークテストセットにおいて,中等度レベルが27%,硬度が30%と,最先端法を27%上回った。
論文 参考訳(メタデータ) (2021-04-06T07:01:28Z) - Learning to Track with Object Permanence [61.36492084090744]
共同物体の検出と追跡のためのエンドツーエンドのトレーニング可能なアプローチを紹介します。
私たちのモデルは、合成データと実データで共同トレーニングされ、KITTIおよびMOT17データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2021-03-26T04:43:04Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。