論文の概要: Robust Computer-Vision based Construction Site Detection for Assistive-Technology Applications
- arxiv url: http://arxiv.org/abs/2503.04139v2
- Date: Tue, 23 Sep 2025 20:28:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 14:09:11.130121
- Title: Robust Computer-Vision based Construction Site Detection for Assistive-Technology Applications
- Title(参考訳): コンピュータビジョンに基づく補助技術応用のためのロバストな建設現場検出
- Authors: Junchi Feng, Giles Hamilton-Fletcher, Nikhil Ballem, Michael Batavia, Yifei Wang, Jiuling Zhong, Maurizio Porfiri, John-Ross Rizzo,
- Abstract要約: 建設ゾーンは、不均一な表面、障壁、有害物質、過度の騒音、変更ルートなどの危険を導入する。
既存のハザード検出システムは、建設現場の視覚的変動に苦慮している。
3つのモジュールを統合したコンピュータビジョンに基づく補助システムを開発した。
- 参考スコア(独自算出の注目度): 8.015477583017788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Navigating urban environments poses significant challenges for individuals who are blind or have low vision, especially in areas affected by construction. Construction zones introduce hazards such as uneven surfaces, barriers, hazardous materials, excessive noise, and altered routes that obstruct familiar paths and compromise safety. Although navigation tools assist in trip planning, they often overlook these temporary obstacles. Existing hazard detection systems also struggle with the visual variability of construction sites. Methods: We developed a computer vision--based assistive system integrating three modules: an open-vocabulary object detector to identify diverse construction-related elements, a YOLO-based model specialized in detecting scaffolding and poles, and an optical character recognition module to interpret construction signage. Results: In static testing at seven construction sites using images from multiple stationary viewpoints, the system achieved 88.56% overall accuracy. It consistently identified relevant objects within 2--10 meters and at approach angles up to 75$^{\circ}$. At 2--4 meters, detection was perfect (100%) across all angles. Even at 10 meters, six of seven sites remained detectable within a 15$^{\circ}$ approach. In dynamic testing along a 0.5-mile urban route containing eight construction sites, the system analyzed every frame of a first-person walking video. It achieved 87.26% accuracy in distinguishing construction from non-construction areas, rising to 92.0% with a 50-frame majority vote filter. Conclusion: The system can reliably detect construction sites in real time and at sufficient distances to provide advance warnings, enabling individuals with visual impairments to make safer mobility decisions such as proceeding with caution or rerouting.
- Abstract(参考訳): 目的: 都市環境をナビゲートすることは視覚障害者、特に建設の影響を受ける地域で大きな課題となる。
建設ゾーンは、不均一な表面、障壁、有害物質、過度な騒音、慣れ親しんだ道を妨害し、安全を損なうルートの変更などの危険をもたらす。
ナビゲーションツールは旅行計画を支援するが、しばしば一時的な障害を見落としている。
既存のハザード検出システムは、建設現場の視覚的変動にも悩まされている。
方法:我々は,多種多様な構成要素を識別するオープンボキャブラリオブジェクト検出器,足場やポールの検出に特化したYOLOモデル,建設標識を解釈する光学文字認識モジュールの3つのモジュールを統合したコンピュータビジョンベース支援システムを開発した。
結果: 複数の静止面からの画像を用いた7つの建設現場での静的試験において,システム全体の精度は88.56%に達した。
2~10m以内、接近角75$^{\circ}$.2~4mでは、全角度にわたって検出が完璧(100%)であった。
10メートルでも、7つのサイトのうち6つは15$^{\circ}$アプローチで検出できた。
8つの建設現場を含む0.5マイルの市街地沿いの動的試験において、システムは1人歩行ビデオの全フレームを分析した。
建設現場と建設現場を区別する精度は87.26%に達し、50フレームの多数決フィルターで92.0%まで上昇した。
結論: 本システムでは, 建設現場をリアルタイムかつ十分な距離で確実に検出し, 事前警告を提供することにより, 視覚障害のある個人が, 注意を払って進行したり, 再発したりして, より安全な移動意思決定を行えるようにした。
関連論文リスト
- An Embedded Real-time Object Alert System for Visually Impaired: A Monocular Depth Estimation based Approach through Computer Vision [0.0]
バングラデシュの都市では、視覚障害者は日々の通勤で重大な課題に直面している。
近距離で物体の視覚障害を事前に警告できるシステムを開発する上で、最重要課題である。
提案システムでは,近い距離に存在する物体に対して個人に警告を行うことができる。
論文 参考訳(メタデータ) (2025-07-10T20:55:22Z) - NOVA: Navigation via Object-Centric Visual Autonomy for High-Speed Target Tracking in Unstructured GPS-Denied Environments [56.35569661650558]
我々はNOVAというオブジェクト中心のフレームワークを導入し、ロバストな目標追跡と衝突認識ナビゲーションを可能にした。
グローバルマップを構築するのではなく、NOVAはターゲットの参照フレーム内での知覚、推定、制御を定式化する。
我々は,都市迷路や森林の小道,間欠的なGPS損失を伴う建物内の繰り返し遷移など,現実の挑戦的なシナリオにまたがってNOVAを検証する。
論文 参考訳(メタデータ) (2025-06-23T14:28:30Z) - MR.NAVI: Mixed-Reality Navigation Assistant for the Visually Impaired [42.45301319345154]
本稿では,視覚障害者の空間認識を高める複合現実感システムであるMR. NAVIを提案する。
本システムでは,物体検出と深度推定のためのコンピュータビジョンアルゴリズムと自然言語処理を組み合わせることで,文脈的シーン記述を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:02:56Z) - Dynamic Attention and Bi-directional Fusion for Safety Helmet Wearing Detection [5.120876889250054]
本稿では,検出ヘッドに動的注意を取り入れた安全ヘルメット着用のための新しいアルゴリズムを提案する。
MAP@[.5:.95]は最良ベースラインに比べて1.7%改善され、GFLOPは11.9%縮小された。
論文 参考訳(メタデータ) (2024-11-28T11:33:51Z) - Object Depth and Size Estimation using Stereo-vision and Integration with SLAM [2.122581579741322]
自律ロボットにおけるLiDARを補完する高精度な立体視手法を提案する。
このシステムは、高度な立体視に基づく物体検出を使用して、有形物体と非有形物体の両方を検出する。
深さと大きさの情報はSLAMプロセスに統合され、複雑な環境でロボットのナビゲーション能力を高める。
論文 参考訳(メタデータ) (2024-09-11T21:12:48Z) - Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - LiDAR-guided object search and detection in Subterranean Environments [12.265807098187297]
この研究は、視覚と深度センサーの相補的な性質を利用して、より長距離での物体検出を支援するマルチモーダル情報を活用する。
提案された研究は、DARPA Subterranean Challengeのファイナルで収集されたデータセットに基づいて、地下の環境でANYmalの四足歩行ロボットを用いて徹底的に検証されている。
論文 参考訳(メタデータ) (2022-10-26T19:38:19Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - LightDefectNet: A Highly Compact Deep Anti-Aliased Attention Condenser
Neural Network Architecture for Light Guide Plate Surface Defect Detection [71.40595908386477]
ライトガイドプレートの製造において重要なステップは、傷、明るい暗黒点、不純物などの欠陥の検査である。
ディープラーニング駆動型コンピュータビジョンの進歩は、ライトガイドプレートの自動視覚品質検査の探索につながった。
LightDetectNetは、光ガイド板表面欠陥検出に特化して設計された、高度にコンパクトなディープアンチエイリアス化されたアテンションコンデンサニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2022-04-25T16:33:37Z) - Augmented reality navigation system for visual prosthesis [67.09251544230744]
反応ナビゲーションと経路計画のソフトウェアを組み込んだ視覚補綴用拡張現実ナビゲーションシステムを提案する。
対象を地図上に配置し、対象の軌道を計画し、対象に示し、障害なく再計画する。
その結果,目標を達成するための時間と距離を減らし,障害物衝突の回数を大幅に減らし,航法性能の向上を図っている。
論文 参考訳(メタデータ) (2021-09-30T09:41:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。