論文の概要: Object Detection using Oriented Window Learning Vi-sion Transformer: Roadway Assets Recognition
- arxiv url: http://arxiv.org/abs/2406.10712v1
- Date: Sat, 15 Jun 2024 18:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 23:04:22.107472
- Title: Object Detection using Oriented Window Learning Vi-sion Transformer: Roadway Assets Recognition
- Title(参考訳): 指向性ウィンドウラーニング・ヴィジョン変換器を用いた物体検出:道路アセット認識
- Authors: Taqwa Alhadidi, Ahmed Jaber, Shadi Jaradat, Huthaifa I Ashqar, Mohammed Elhenawy,
- Abstract要約: Oriented Window Learning Vision Transformer (OWL-ViT) は、オブジェクトの幾何学と存在に窓の向きを適応させることによって、新しいアプローチを提供する。
本研究では、OWL-ViTをワンショット学習フレームワークで活用し、交通標識、ポール、舗装、ひび割れなどの交通インフラコンポーネントを認識する。
- 参考スコア(独自算出の注目度): 4.465427147188149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object detection is a critical component of transportation systems, particularly for applications such as autonomous driving, traffic monitoring, and infrastructure maintenance. Traditional object detection methods often struggle with limited data and variability in object appearance. The Oriented Window Learning Vision Transformer (OWL-ViT) offers a novel approach by adapting window orientations to the geometry and existence of objects, making it highly suitable for detecting diverse roadway assets. This study leverages OWL-ViT within a one-shot learning framework to recognize transportation infrastructure components, such as traffic signs, poles, pavement, and cracks. This study presents a novel method for roadway asset detection using OWL-ViT. We conducted a series of experiments to evaluate the performance of the model in terms of detection consistency, semantic flexibility, visual context adaptability, resolution robustness, and impact of non-max suppression. The results demonstrate the high efficiency and reliability of the OWL-ViT across various scenarios, underscoring its potential to enhance the safety and efficiency of intelligent transportation systems.
- Abstract(参考訳): オブジェクト検出は、特に自動運転、交通監視、インフラ整備などのアプリケーションにおいて、交通システムにおいて重要なコンポーネントである。
従来のオブジェクト検出手法は、オブジェクトの外観における限られたデータと可変性に苦しむことが多い。
The Oriented Window Learning Vision Transformer (OWL-ViT)は、オブジェクトの形状と存在に窓の向きを適応させることによって、多様な道路資産を検出するのに非常に適している、新しいアプローチを提供する。
本研究では、OWL-ViTをワンショット学習フレームワークで活用し、交通標識、ポール、舗装、ひび割れなどの交通インフラコンポーネントを認識する。
本研究では,OWL-ViTを用いた道路資産検出手法を提案する。
我々は,検出一貫性,意味的柔軟性,視覚的コンテキスト適応性,解像度の堅牢性,非最大抑制の影響の観点から,モデルの性能を評価する一連の実験を行った。
その結果、OWL-ViTの高効率性と信頼性が様々なシナリオで示され、インテリジェント輸送システムの安全性と効率を高める可能性を示している。
関連論文リスト
- Deep Active Perception for Object Detection using Navigation Proposals [39.52573252842573]
オブジェクト検出のための汎用的な教師付き能動知覚パイプラインを提案する。
既存のオフ・ザ・シェルフ・オブジェクト・ディテクターを使って訓練でき、シミュレーション環境の進歩も活用できる。
提案手法は, Webots ロボットシミュレータ内に構築された合成データセットを用いて評価した。
論文 参考訳(メタデータ) (2023-12-15T20:55:52Z) - Efficient Vision Transformer for Accurate Traffic Sign Detection [0.0]
本研究では,自動運転車や運転支援システムにおける交通標識検出の課題について論じる。
この課題に対処するため、Transformerモデル、特にVision Transformerの派生版が導入された。
本研究はトランスフォーマーモデルの効率を高めるために,局所性帰納バイアスとトランスフォーマーモジュールを統合する新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-11-02T17:44:32Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Effects of Real-Life Traffic Sign Alteration on YOLOv7- an Object
Recognition Model [1.6334452280183571]
本研究では,物体認識の精度と有効性に対する交通標識の変化の影響について検討した。
形状、色、コンテンツ、可視性、角度、背景の変更を導入するために、公開データセットを使用している。
この研究は、異常な状況下で交通標識に直面すると、検出と分類の精度が著しく低下することを示している。
論文 参考訳(メタデータ) (2023-05-09T14:51:29Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Dynamic and Static Object Detection Considering Fusion Regions and
Point-wise Features [7.41540085468436]
本稿では,自動運転車の前方における静的・動的物体の検出手法を提案する。
われわれのアプローチは、検出された物体から、その位置、速度、方向などの他の特徴を得ることもできる。
提案手法の性能を示すために,ベンチマークデータセットと,自律プラットフォームから得られた実世界のデータを用いて評価する。
論文 参考訳(メタデータ) (2021-07-27T09:42:18Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。