論文の概要: An embedded deep learning system for augmented reality in firefighting
applications
- arxiv url: http://arxiv.org/abs/2009.10679v1
- Date: Tue, 22 Sep 2020 16:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 21:42:40.798229
- Title: An embedded deep learning system for augmented reality in firefighting
applications
- Title(参考訳): 消防アプリケーションにおける拡張現実のための組込み深層学習システム
- Authors: Manish Bhattarai, Aura Rose Jensen-Curtis, Manel Mart\'iNez-Ram\'on
- Abstract要約: この研究は、ディープラーニング、ポイントクラウド、サーマルイメージング、拡張現実プラットフォームなど、最近の技術の進歩を実践している。
我々は、消防士の個人防護装置(PPE)に組み込まれたカメラからストリームされるデータを利用して、熱、RGB色、深度画像をキャプチャする、プロトタイプの組込みシステムの設計と構築を行った。
組込みシステムは、処理された画像をワイヤレスストリーミングで分析して返却し、拡張現実プラットフォームを使用してリモートで消防士に中継することができる。
- 参考スコア(独自算出の注目度): 2.750124853532832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Firefighting is a dynamic activity, in which numerous operations occur
simultaneously. Maintaining situational awareness (i.e., knowledge of current
conditions and activities at the scene) is critical to the accurate
decision-making necessary for the safe and successful navigation of a fire
environment by firefighters. Conversely, the disorientation caused by hazards
such as smoke and extreme heat can lead to injury or even fatality. This
research implements recent advancements in technology such as deep learning,
point cloud and thermal imaging, and augmented reality platforms to improve a
firefighter's situational awareness and scene navigation through improved
interpretation of that scene. We have designed and built a prototype embedded
system that can leverage data streamed from cameras built into a firefighter's
personal protective equipment (PPE) to capture thermal, RGB color, and depth
imagery and then deploy already developed deep learning models to analyze the
input data in real time. The embedded system analyzes and returns the processed
images via wireless streaming, where they can be viewed remotely and relayed
back to the firefighter using an augmented reality platform that visualizes the
results of the analyzed inputs and draws the firefighter's attention to objects
of interest, such as doors and windows otherwise invisible through smoke and
flames.
- Abstract(参考訳): 消火活動は動的活動であり、同時に多数の操作が行われる。
現場における状況認識(現在の状況や活動の知識)を維持することは、消防士による火災環境の安全かつ良好な航行に必要な正確な意思決定に不可欠である。
逆に、煙や過熱などの危険によって引き起こされる方向転換は、怪我や死に至ることがある。
本研究では,深層学習,ポイントクラウド,サーマルイメージング,拡張現実プラットフォームなどの最近の技術進歩を実装し,消防士の状況認識とシーンナビゲーションを改善し,そのシーンの解釈を改善した。
我々は、消防士の個人防護装置(PPE)に組み込まれたカメラからストリームされるデータを利用して、熱、RGB色、深度画像をキャプチャし、すでに開発されたディープラーニングモデルをデプロイし、リアルタイムで入力データを分析できる、プロトタイプの組込みシステムを構築し、構築した。
組込みシステムは、処理された画像をワイヤレスストリーミングで分析・返却し、遠隔で見ることができ、分析された入力の結果を可視化する拡張現実プラットフォームを使用して消防士に中継し、煙や炎によって見えないドアや窓などの興味のある物体に消防士の注意を向ける。
関連論文リスト
- Floor extraction and door detection for visually impaired guidance [78.94595951597344]
未知の環境で障害物のない経路を見つけることは、視覚障害者や自律ロボットにとって大きなナビゲーション問題である。
コンピュータビジョンシステムに基づく新しいデバイスは、障害のある人が安全な環境で未知の環境でナビゲートすることの難しさを克服するのに役立つ。
本研究では,視覚障害者のためのナビゲーションシステムの構築につながるセンサとアルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-01-30T14:38:43Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Image-Based Fire Detection in Industrial Environments with YOLOv4 [53.180678723280145]
この研究は、AIが火災を検出し、認識し、画像ストリーム上のオブジェクト検出を使用して検出時間を短縮する可能性を検討する。
そこで我々は, YOLOv4オブジェクト検出器をベースとした複数のモデルのトレーニングと評価に使用されてきた複数の公開情報源から, 適切なデータを収集, ラベル付けした。
論文 参考訳(メタデータ) (2022-12-09T11:32:36Z) - Learning Deep Sensorimotor Policies for Vision-based Autonomous Drone
Racing [52.50284630866713]
既存のシステムは、状態推定、計画、制御のために手作業によるコンポーネントを必要とすることが多い。
本稿では、深層感触者ポリシーを学習することで、視覚に基づく自律ドローンレース問題に取り組む。
論文 参考訳(メタデータ) (2022-10-26T19:03:17Z) - An Empirical Study of Remote Sensing Pretraining [117.90699699469639]
本研究では,空中画像におけるリモートセンシング事前訓練(RSP)の実証的研究を行った。
RSPは、シーン認識タスクで特有のパフォーマンスを提供するのに役立つ。
RSPは、従来のイメージネットがRS画像に事前学習する際のデータ格差を緩和するが、それでもタスクの相違に悩まされる可能性がある。
論文 参考訳(メタデータ) (2022-04-06T13:38:11Z) - Spatio-Temporal Split Learning for Autonomous Aerial Surveillance using
Urban Air Mobility (UAM) Networks [16.782309873372057]
本稿では,街路火災の検知を目的とした監視型UAVを利用する。
このシナリオに時空間分割学習を適用して、プライバシを保護し、世界規模で火災分類モデルを訓練する。
本稿では,このUAV環境での分断学習に必要なクライアント数とデータ比率と,必要なネットワークインフラについて検討する。
論文 参考訳(メタデータ) (2021-11-15T01:39:31Z) - Meta-UDA: Unsupervised Domain Adaptive Thermal Object Detection using
Meta-Learning [64.92447072894055]
赤外線(IR)カメラは、照明条件や照明条件が悪ければ頑丈である。
既存のUDA手法を改善するためのアルゴリズムメタ学習フレームワークを提案する。
KAISTおよびDSIACデータセットのための最先端熱検出器を作成した。
論文 参考訳(メタデータ) (2021-10-07T02:28:18Z) - Integrating Deep Learning and Augmented Reality to Enhance Situational
Awareness in Firefighting Environments [4.061135251278187]
文献の中では,消防士の状況認識を初めて構築するための,新たな4つのアプローチを提案する。
まず、深層畳み込みニューラルネットワーク(CNN)システムを用いて、熱画像から興味のある物体をリアルタイムで分類、同定した。
次に、オブジェクト検出、追跡、Mask RCNNフレームワークによるセグメンテーション、マルチモーダル自然言語処理(NLP)フレームワークによるシーン記述のためのCNNフレームワークを拡張した。
第3に、ストレスによる不整合と不安に免疫する深いQラーニングに基づくエージェントを構築し、観察結果に基づいて明確なナビゲーション決定を行う。
論文 参考訳(メタデータ) (2021-07-23T06:35:13Z) - Aerial Imagery Pile burn detection using Deep Learning: the FLAME
dataset [9.619617596045911]
FLAME(Fire Luminosity Airborne-based Machine Learning Evaluation)は、火災の空中画像のデータセットを提供する。
本論文は,アリゾナ松林において,所定の燃えるデトリタスの間,ドローンが収集した火災画像データセットを提供する。
また、この論文は2つの機械学習問題の解決策を強調している: 火炎の存在と不在に基づくビデオフレームのバイナリ分類。
論文 参考訳(メタデータ) (2020-12-28T00:00:41Z) - A deep Q-Learning based Path Planning and Navigation System for
Firefighting Environments [3.24890820102255]
ストレス誘発性不整合と不安に免疫を持つQ-ラーニングに基づく深層エージェントを提案する。
概念実証として、Unreal Engineと呼ばれるゲームエンジンの構造的な火災を模倣する。
体験リプレイを利用して学習プロセスを加速し、エージェントの学習を人間由来の体験で増強する。
論文 参考訳(メタデータ) (2020-11-12T15:43:17Z) - A Novel Indoor Positioning System for unprepared firefighting scenarios [2.446948464551684]
本研究は、室内位置決めシステム(IPS)のためのコンパス方向推定とIMUデータに基づく活動認識のための新しい光フローベースビデオを実装した。
この技術は、最初の応答者が未準備で未知の環境に入るのに役立ち、依然として、方向や犠牲者のファイアファイターの位置といった状況認識を維持するのに役立ちます。
論文 参考訳(メタデータ) (2020-08-04T05:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。