論文の概要: Robust Computer-Vision based Construction Site Detection for Assistive-Technology Applications
- arxiv url: http://arxiv.org/abs/2503.04139v1
- Date: Thu, 06 Mar 2025 06:35:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:59:37.036592
- Title: Robust Computer-Vision based Construction Site Detection for Assistive-Technology Applications
- Title(参考訳): コンピュータビジョンに基づく補助技術応用のためのロバストな建設現場検出
- Authors: Junchi Feng, Giles Hamilton-Fletcher, Nikhil Ballem, Michael Batavia, Yifei Wang, Jiuling Zhong, Maurizio Porfiri, John-Ross Rizzo,
- Abstract要約: 建設現場では、不均一な表面、障害物バリア、有害物質、過度な騒音などの危険が導入されている。
既存の補助技術は、ナビゲーションアプリが旅行計画中の建設現場を考慮していないため、制限されている。
本研究では,オープンボキャブラリオブジェクト検出,YOLOに基づく足場検出モデル,OCRモジュールを統合した新しいコンピュータビジョンベースシステムを提案する。
- 参考スコア(独自算出の注目度): 11.522238044414532
- License:
- Abstract: Navigating urban environments poses significant challenges for people with disabilities, particularly those with blindness and low vision. Environments with dynamic and unpredictable elements like construction sites are especially challenging. Construction sites introduce hazards like uneven surfaces, obstructive barriers, hazardous materials, and excessive noise, and they can alter routing, complicating safe mobility. Existing assistive technologies are limited, as navigation apps do not account for construction sites during trip planning, and detection tools that attempt hazard recognition struggle to address the extreme variability of construction paraphernalia. This study introduces a novel computer vision-based system that integrates open-vocabulary object detection, a YOLO-based scaffolding-pole detection model, and an optical character recognition (OCR) module to comprehensively identify and interpret construction site elements for assistive navigation. In static testing across seven construction sites, the system achieved an overall accuracy of 88.56\%, reliably detecting objects from 2m to 10m within a 0$^\circ$ -- 75$^\circ$ angular offset. At closer distances (2--4m), the detection rate was 100\% at all tested angles. At
- Abstract(参考訳): 都市環境をナビゲートすることは、障害のある人々、特に盲目で視力の低い人々にとって大きな課題となる。
建設現場のような動的で予測不可能な要素を持つ環境は特に困難である。
建設現場では、不均一な表面、障害物の壁、有害物質、過度な騒音などの危険が伴い、ルーティングを変更でき、安全な移動が複雑になる。
既存の補助技術は、ナビゲーションアプリが旅行計画中の建設現場を考慮していないことや、建設パラフェラリアの極端な変動に対処するためにハザード認識を試みようとする検出ツールが限られている。
本研究では,オープンボキャブラリオブジェクト検出とYOLOに基づく足場検出モデルと,補助ナビゲーションのための建設現場要素を包括的に識別・解釈する光学文字認識(OCR)モジュールを統合したコンピュータビジョンベースシステムを提案する。
7つの建設現場での静的試験において、システムは88.56\%の精度を達成し、0$^\circ$ -- 75$^\circ$ 角オフセット内で2mから10mの物体を確実に検出した。
時
関連論文リスト
- Dynamic Attention and Bi-directional Fusion for Safety Helmet Wearing Detection [5.120876889250054]
本稿では,検出ヘッドに動的注意を取り入れた安全ヘルメット着用のための新しいアルゴリズムを提案する。
MAP@[.5:.95]は最良ベースラインに比べて1.7%改善され、GFLOPは11.9%縮小された。
論文 参考訳(メタデータ) (2024-11-28T11:33:51Z) - Object Depth and Size Estimation using Stereo-vision and Integration with SLAM [2.122581579741322]
自律ロボットにおけるLiDARを補完する高精度な立体視手法を提案する。
このシステムは、高度な立体視に基づく物体検出を使用して、有形物体と非有形物体の両方を検出する。
深さと大きさの情報はSLAMプロセスに統合され、複雑な環境でロボットのナビゲーション能力を高める。
論文 参考訳(メタデータ) (2024-09-11T21:12:48Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - LiDAR-guided object search and detection in Subterranean Environments [12.265807098187297]
この研究は、視覚と深度センサーの相補的な性質を利用して、より長距離での物体検出を支援するマルチモーダル情報を活用する。
提案された研究は、DARPA Subterranean Challengeのファイナルで収集されたデータセットに基づいて、地下の環境でANYmalの四足歩行ロボットを用いて徹底的に検証されている。
論文 参考訳(メタデータ) (2022-10-26T19:38:19Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。