論文の概要: Anomaly Detection for People with Visual Impairments Using an Egocentric 360-Degree Camera
- arxiv url: http://arxiv.org/abs/2411.10945v1
- Date: Sun, 17 Nov 2024 02:52:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:33:19.566890
- Title: Anomaly Detection for People with Visual Impairments Using an Egocentric 360-Degree Camera
- Title(参考訳): エゴセントリック360度カメラを用いた視覚障害者の異常検出
- Authors: Inpyo Song, Sanghyeon Lee, Minjun Joo, Jangwon Lee,
- Abstract要約: 視覚障害者の異常な状況を検出するための第一歩として,360度カメラを用いて周囲を観察する手法を提案する。
我々は、視覚障害者が遭遇する可能性のある異常な活動を含む、新しいエゴセントリックな360度ビデオデータセットVIEW360を紹介した。
本稿では,異常事象のフレームレベルの予測と方向の同定を容易にするFDPNというアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 3.327376781194993
- License:
- Abstract: Recent advancements in computer vision have led to a renewed interest in developing assistive technologies for individuals with visual impairments. Although extensive research has been conducted in the field of computer vision-based assistive technologies, most of the focus has been on understanding contexts in images, rather than addressing their physical safety and security concerns. To address this challenge, we propose the first step towards detecting anomalous situations for visually impaired people by observing their entire surroundings using an egocentric 360-degree camera. We first introduce a novel egocentric 360-degree video dataset called VIEW360 (Visually Impaired Equipped with Wearable 360-degree camera), which contains abnormal activities that visually impaired individuals may encounter, such as shoulder surfing and pickpocketing. Furthermore, we propose a new architecture called the FDPN (Frame and Direction Prediction Network), which facilitates frame-level prediction of abnormal events and identifying of their directions. Finally, we evaluate our approach on our VIEW360 dataset and the publicly available UCF-Crime and Shanghaitech datasets, demonstrating state-of-the-art performance.
- Abstract(参考訳): 近年のコンピュータビジョンの進歩は、視覚障害のある人のための補助技術開発への新たな関心につながっている。
コンピュータビジョンに基づく補助技術の分野では広範な研究が行われてきたが、その焦点は物理的な安全性やセキュリティの問題に対処するのではなく、画像のコンテキストを理解することにある。
この課題に対処するために,エゴセントリックな360度カメラを用いて周囲を観察することで,視覚障害者の異常な状況を検出するための第一歩を提案する。
まず,視覚障害者が肩サーフィンやピックポーケッティングなど,視覚障害者が遭遇する可能性のある異常な活動を含む,視覚障害者用360度ビデオデータセット「VIEW360」を紹介した。
さらに,FDPN(Frame and Direction Prediction Network)と呼ばれる,異常事象のフレームレベルの予測と方向の同定を容易にするアーキテクチャを提案する。
最後に、我々のVIEW360データセットとUCF-Crimeおよび上海技術データセットに対する我々のアプローチを評価し、最先端のパフォーマンスを実証した。
関連論文リスト
- Video Question Answering for People with Visual Impairments Using an Egocentric 360-Degree Camera [2.427410108595295]
本稿では,視覚障害者が直面する日常的課題,例えば情報へのアクセス制限,ナビゲーションの困難,社会的相互作用への障壁について論じる。
これらの課題を軽減するために、我々は新しい視覚的質問応答データセットを導入する。
ビデオは360度エゴセントリックなウェアラブルカメラで撮影され、周囲全体を観察することができる。
論文 参考訳(メタデータ) (2024-05-30T08:02:05Z) - Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Spherical Vision Transformer for 360-degree Video Saliency Prediction [17.948179628551376]
本稿では,SalViT360という全方向ビデオのための視覚変換器モデルを提案する。
球面形状を意識した自己認識機構を導入し,全方向の映像を効果的に理解する。
本手法は,全方位の塩分濃度予測にタンジェント画像を用いた最初の試みであり,3つのODV塩分濃度データセットによる実験結果から,最先端の塩分濃度予測と比較して,その有効性を示した。
論文 参考訳(メタデータ) (2023-08-24T18:07:37Z) - A Survey on Computer Vision based Human Analysis in the COVID-19 Era [58.79053747159797]
新型コロナウイルスの出現は、社会全体だけでなく、個人の生活にも大きく影響している。
マスクやソーシャルディスタンシングの義務、公共空間での定期消毒、スクリーニングアプリケーションの使用など、さまざまな予防策が世界中で導入されている。
これらの発展は、(i)視覚データの自動解析による予防対策の支援、(ii)生体認証などの既存の視覚ベースのサービスの正常な操作を容易にする、新しいコンピュータビジョン技術の必要性を喚起した。
論文 参考訳(メタデータ) (2022-11-07T17:20:39Z) - People Tracking in Panoramic Video for Guiding Robots [2.092922495279074]
ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T16:44:38Z) - The State of Aerial Surveillance: A Survey [62.198765910573556]
本稿では、コンピュータビジョンとパターン認識の観点から、人間中心の空中監視タスクの概要を概観する。
主な対象は、単体または複数の被験者が検出され、特定され、追跡され、再同定され、その振る舞いが分析される人間である。
論文 参考訳(メタデータ) (2022-01-09T20:13:27Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - Anomaly Detection using Edge Computing in Video Surveillance System:
Review [0.0]
スマートシティの概念は、都市計画者や研究者に近代的で安全で持続可能なインフラを提供し、住民にまともな生活の質を与えるよう影響を与えている。
このニーズを満たすために、市民の安全と幸福を高めるために、ビデオ監視カメラが配備されている。
現代科学の技術的発展にもかかわらず、監視ビデオシステムにおける異常事象の検出は困難であり、徹底的な人間の努力を必要とする。
論文 参考訳(メタデータ) (2021-07-06T17:41:56Z) - SelfPose: 3D Egocentric Pose Estimation from a Headset Mounted Camera [97.0162841635425]
頭部装着型VR装置の縁に設置した下向きの魚眼カメラから撮影した単眼画像から,エゴセントリックな3Dボディポーズ推定法を提案する。
この特異な視点は、厳密な自己閉塞と視点歪みを伴う、独特の視覚的な外観のイメージに繋がる。
本稿では,2次元予測の不確実性を考慮した新しいマルチブランチデコーダを用いたエンコーダデコーダアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-02T16:18:06Z) - Towards Hardware-Agnostic Gaze-Trackers [0.5512295869673146]
本稿では、制約付き視線追跡のための外観に基づく手法として、ディープニューラルネットワークアーキテクチャを提案する。
我々のシステムは、キャリブレーションやデバイス固有の微調整なしで、GazeCaptureデータセット上で1.8073cmの誤差を達成した。
論文 参考訳(メタデータ) (2020-10-11T00:53:57Z) - Perceptual Quality Assessment of Omnidirectional Images as Moving Camera
Videos [49.217528156417906]
ユーザの視聴行動やパノラマの知覚的品質を決定するには,2種類のVR視聴条件が不可欠である。
まず、異なる視聴条件下での異なるユーザの視聴行動を用いて、一方向の画像を複数のビデオ表現に変換する。
次に、高度な2次元フルレファレンスビデオ品質モデルを活用して、知覚された品質を計算する。
論文 参考訳(メタデータ) (2020-05-21T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。