論文の概要: YOLOPoint Joint Keypoint and Object Detection
- arxiv url: http://arxiv.org/abs/2402.03989v1
- Date: Tue, 6 Feb 2024 13:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:40:33.337970
- Title: YOLOPoint Joint Keypoint and Object Detection
- Title(参考訳): YOLOPointジョイントキーポイントとオブジェクト検出
- Authors: Anton Backhaus, Thorsten Luettel, Hans-Joachim Wuensche
- Abstract要約: 画像中のキーポイントとオブジェクトを同時に検出する畳み込みニューラルネットワークモデルであるYOLOPointを提案する。
共有バックボーンと軽量ネットワーク構造を使用することで、YOLOPointはHPatchesとKITTIベンチマークで競争力を発揮する。
- 参考スコア(独自算出の注目度): 4.005483185111992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent vehicles of the future must be capable of understanding and
navigating safely through their surroundings. Camera-based vehicle systems can
use keypoints as well as objects as low- and high-level landmarks for
GNSS-independent SLAM and visual odometry. To this end we propose YOLOPoint, a
convolutional neural network model that simultaneously detects keypoints and
objects in an image by combining YOLOv5 and SuperPoint to create a single
forward-pass network that is both real-time capable and accurate. By using a
shared backbone and a light-weight network structure, YOLOPoint is able to
perform competitively on both the HPatches and KITTI benchmarks.
- Abstract(参考訳): 未来のインテリジェントな車両は、周囲を安全に理解し、航行できなければならない。
カメラベースの車両システムは、GNSSに依存しないSLAMと視覚計測のための低レベルのランドマークとして、キーポイントやオブジェクトを使用することができる。
そこで本稿では,YOLOv5とSuperPointを組み合わせることで,画像内のキーポイントとオブジェクトを同時に検出する畳み込みニューラルネットワークモデルであるYOLOPointを提案する。
共有バックボーンと軽量ネットワーク構造を使用することで、YOLOPointはHPatchesとKITTIベンチマークの両方で競争力を発揮する。
関連論文リスト
- What is YOLOv8: An In-Depth Exploration of the Internal Features of the Next-Generation Object Detector [0.0]
本研究では, YOLOv8オブジェクト検出モデルの詳細解析を行った。
YOLOv5のような以前のイテレーションよりもアーキテクチャ、トレーニングテクニック、パフォーマンスの改善に重点を置いている。
論文では、Microsoft COCOやRoboflow 100のようなベンチマークにおけるYOLOv8のパフォーマンスをレビューし、その高精度でリアルタイムな機能を強調している。
論文 参考訳(メタデータ) (2024-08-28T15:18:46Z) - Hyper-YOLO: When Visual Object Detection Meets Hypergraph Computation [74.65906322148997]
本稿では,画像特徴量間の複雑な高次相関を捉えるためにハイパーグラフ計算を統合する新しいオブジェクト検出手法を提案する。
Hyper-YOLOは、高度なYOLOv8-NとYOLOv9Tを12%のtextval$と9%のAPMoonLabの改善で大幅に上回っている。
論文 参考訳(メタデータ) (2024-08-09T01:21:15Z) - MODIPHY: Multimodal Obscured Detection for IoT using PHantom Convolution-Enabled Faster YOLO [10.183459286746196]
YOLO Phantomは、史上最小のYOLOモデルのひとつです。
YOLO Phantomは最新のYOLOv8nモデルと同等の精度を実現し、パラメータとモデルサイズを同時に削減する。
実際の有効性は、高度な低照度カメラとRGBカメラを備えたIoTプラットフォーム上で実証され、AWSベースの通知エンドポイントにシームレスに接続される。
論文 参考訳(メタデータ) (2024-02-12T18:56:53Z) - YOLO-World: Real-Time Open-Vocabulary Object Detection [87.08732047660058]
オープン語彙検出機能でYOLOを強化する革新的なアプローチであるYOLO-Worldを紹介する。
提案手法は,ゼロショット方式で広範囲の物体を高効率で検出する。
YOLO-WorldはV100上で52.0 FPSの35.4 APを達成した。
論文 参考訳(メタデータ) (2024-01-30T18:59:38Z) - Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - YOLO-BEV: Generating Bird's-Eye View in the Same Way as 2D Object
Detection [8.082514573754954]
YOLO-BEVは、ユニークな周囲カメラのセットアップを利用して、車体環境の2D鳥眼ビューを生成する効率的なフレームワークである。
リアルタイム車体認識タスクにおけるYOLO-BEVの実現可能性について予備的な検証を行った。
論文 参考訳(メタデータ) (2023-10-26T13:16:27Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - OpenPifPaf: Composite Fields for Semantic Keypoint Detection and
Spatio-Temporal Association [90.39247595214998]
イメージベースの知覚タスクは、例えば、検出、関連付け、セマンティックキーポイントとして定式化することができる。
人間の体は 推定と追跡をする
一つの段階における意味的および時間的キーポイント関連を共同で検出する一般的な枠組みを提案する。
また,本手法は車や動物などのキーポイントのクラスに一般化し,総合的な知覚の枠組みを提供することを示す。
論文 参考訳(メタデータ) (2021-03-03T14:44:14Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - YOLOpeds: Efficient Real-Time Single-Shot Pedestrian Detection for Smart
Camera Applications [2.588973722689844]
この研究は、スマートカメラアプリケーションにおけるディープラーニングに基づく歩行者検出の効率的な展開のために、精度と速度の良好なトレードオフを達成するという課題に対処する。
分離可能な畳み込みに基づいて計算効率の良いアーキテクチャを導入し、層間密結合とマルチスケール機能融合を提案する。
全体として、YOLOpedsは、既存のディープラーニングモデルよりも86%の速度で、毎秒30フレーム以上のリアルタイム持続的な操作を提供する。
論文 参考訳(メタデータ) (2020-07-27T09:50:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。