論文の概要: PEDESTRIAN: An Egocentric Vision Dataset for Obstacle Detection on Pavements
- arxiv url: http://arxiv.org/abs/2512.19190v1
- Date: Mon, 22 Dec 2025 09:28:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.692328
- Title: PEDESTRIAN: An Egocentric Vision Dataset for Obstacle Detection on Pavements
- Title(参考訳): PEDESTRIAN: 舗装上の障害物検出のためのエゴセントリックな視覚データセット
- Authors: Marios Thoma, Zenonas Theodosiou, Harris Partaourides, Vassilis Vassiliades, Loizos Michael, Andreas Lanitis,
- Abstract要約: PEDESTRIANデータセットは、都市歩道でよく見られる29の障害に対して、エゴセントリックなデータを含んでいる。
合計で340本のビデオが携帯電話のカメラで収集され、歩行者の視点を捉えた。
我々は、最先端のディープラーニングアルゴリズムのトレーニングを含む一連の実験結果を示す。
- 参考スコア(独自算出の注目度): 3.2069702190300617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Walking has always been a primary mode of transportation and is recognized as an essential activity for maintaining good health. Despite the need for safe walking conditions in urban environments, sidewalks are frequently obstructed by various obstacles that hinder free pedestrian movement. Any object obstructing a pedestrian's path can pose a safety hazard. The advancement of pervasive computing and egocentric vision techniques offers the potential to design systems that can automatically detect such obstacles in real time, thereby enhancing pedestrian safety. The development of effective and efficient identification algorithms relies on the availability of comprehensive and well-balanced datasets of egocentric data. In this work, we introduce the PEDESTRIAN dataset, comprising egocentric data for 29 different obstacles commonly found on urban sidewalks. A total of 340 videos were collected using mobile phone cameras, capturing a pedestrian's point of view. Additionally, we present the results of a series of experiments that involved training several state-of-the-art deep learning algorithms using the proposed dataset, which can be used as a benchmark for obstacle detection and recognition tasks. The dataset can be used for training pavement obstacle detectors to enhance the safety of pedestrians in urban areas.
- Abstract(参考訳): 歩行は常に交通の第一の手段であり、健康維持に欠かせない活動であると認識されている。
都市環境における安全な歩行環境の必要性にもかかわらず、歩道は自由な歩行者の動きを妨げる様々な障害物によってしばしば妨げられている。
歩行者の道を妨げるあらゆる物体は、安全上の危険をもたらす可能性がある。
広汎なコンピューティングと自我中心の視覚技術の進歩は、そのような障害物を自動的にリアルタイムで検出し、歩行者の安全を高める設計システムの可能性を提供する。
効率的かつ効率的な識別アルゴリズムの開発は、エゴセントリックなデータの包括的でバランスのとれたデータセットの可用性に依存している。
本研究では,都市歩道でよく見られる29の障害に対して,エゴセントリックなデータを含むPEDESTRIANデータセットを提案する。
合計で340本のビデオが携帯電話のカメラで収集され、歩行者の視点を捉えた。
さらに、提案したデータセットを用いて、いくつかの最先端ディープラーニングアルゴリズムのトレーニングを含む一連の実験結果を示す。
このデータセットは、都市部の歩行者の安全性を高めるために舗装障害物検出器の訓練に使用することができる。
関連論文リスト
- DAVE: Diverse Atomic Visual Elements Dataset with High Representation of Vulnerable Road Users in Complex and Unpredictable Environments [60.69159598130235]
Vulnerable Road Users (VRU) の高表現による認識手法の評価を目的とした新しいデータセット DAVE を提案する。
DAVEは16種類のアクターカテゴリー(動物、人間、車など)と16種類のアクションタイプ(カットイン、ジグザグ運動、Uターンなど、複雑で稀なケース)を手動でアノテートしたデータセットである。
実験の結果,既存の手法はDAVEで評価すると性能の劣化に悩まされ,将来的なビデオ認識研究のメリットを浮き彫りにしていることがわかった。
論文 参考訳(メタデータ) (2024-12-28T06:13:44Z) - Leveraging 3D LiDAR Sensors to Enable Enhanced Urban Safety and Public Health: Pedestrian Monitoring and Abnormal Activity Detection [7.840164209935446]
本稿では,都市交通シナリオにおける3次元物体検出・活動分類の高度化のための新しい枠組みを提案する。
高度LiDARを用いることで、詳細な3Dポイントクラウドデータを取得し、正確な歩行者活動監視を可能にする。
提案手法では, 3次元の頑健な検出を行うために, Point Voxel-Region-based Convolutional Neural Network (PV-RCNN) を改良し, 歩行者活動の分類に PointNet を用いる。
論文 参考訳(メタデータ) (2024-04-17T01:23:49Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Big Data and Deep Learning in Smart Cities: A Comprehensive Dataset for
AI-Driven Traffic Accident Detection and Computer Vision Systems [0.0]
本研究は,スマートシティにおける最先端技術の適用について考察する。
本稿では,交通事故検出のための新しい包括的データセットを提案する。
このデータセットは学術研究を推進し、リアルタイムの事故検出アプリケーションを強化することが期待されている。
論文 参考訳(メタデータ) (2024-01-07T21:50:24Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - CHAMP: Crowdsourced, History-Based Advisory of Mapped Pedestrians for
Safer Driver Assistance Systems [0.0]
CHAMP (Crowdsourced, History-based Advisories of Mapped Pedestrians) は歩行者ゾーンを学習し、車両が歩行者に近づいているときに助言通知を生成する。
我々はカリフォルニア州ラ・ジョラで歩行者データを収集し、慎重にアノテートし、歩行者位置のトレーニングとテストセットを構築した。
この手法は、実験データセット上で最大100%の精度と75%のリコールを達成するように調整することができる。
論文 参考訳(メタデータ) (2023-01-14T07:28:05Z) - Hindsight is 20/20: Leveraging Past Traversals to Aid 3D Perception [59.2014692323323]
小さな、遠く、あるいは非常に隠蔽された物体は、検出するためのLiDAR点雲に限られた情報があるため、特に困難である。
本稿では,過去データから文脈情報を抽出する,エンドツーエンドのトレーニング可能な新しいフレームワークを提案する。
このフレームワークは現代のほとんどの3D検出アーキテクチャと互換性があり、複数の自律走行データセットの平均精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-03-22T00:58:27Z) - Recognition and Co-Analysis of Pedestrian Activities in Different Parts
of Road using Traffic Camera Video [2.414050294189755]
本研究の目的は,停留所とミッドブロック交差点との相関関係を明らかにすることである。
本手法は,周辺交差点に設置した市販CCTVパンティルトゾーム(PTZ)トラヒック監視カメラから,交通カメラビデオを用いてバス停の使用状況を特定する手法を拡張した。
また,横断イベントのみを表示するビデオクリップの自動作成により,歩行者行動検出のマニュアルレビューを容易にするWebポータルも実装した。
論文 参考訳(メタデータ) (2021-11-27T05:46:41Z) - Explainable, automated urban interventions to improve pedestrian and
vehicle safety [0.8620335948752805]
本稿では,歩行者や車両の安全性にアプローチするために,公共データソース,大規模街路画像,コンピュータビジョン技術を組み合わせる。
このパイプラインに関わるステップには、各都市シーンのハザード指標を決定するために、残留畳み込みニューラルネットワークの適応とトレーニングが含まれる。
この計算手法の結果は、都市全体の危険レベルの詳細なマップであり、歩行者と車両の安全性を同時に改善する可能性がある。
論文 参考訳(メタデータ) (2021-10-22T09:17:39Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。