論文の概要: Learning to Assess Danger from Movies for Cooperative Escape Planning in
Hazardous Environments
- arxiv url: http://arxiv.org/abs/2207.13791v1
- Date: Wed, 27 Jul 2022 21:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:16:35.700967
- Title: Learning to Assess Danger from Movies for Cooperative Escape Planning in
Hazardous Environments
- Title(参考訳): 危険環境における共同避難計画のための映画からの危険度評価の学習
- Authors: Vikram Shree, Sarah Allen, Beatriz Asfora, Jacopo Banfi, Mark Campbell
- Abstract要約: このようなシナリオを実世界で再現することは困難であり、これはトレーニングとテストの目的で必要である。
現在のシステムは、このような危険な環境で利用可能なリッチなマルチモーダルデータを十分に活用することはできない。
本稿では,映画やテレビ番組の形式で利用可能な膨大な量の視覚コンテンツを活用し,現実世界で遭遇する危険環境を表現できるデータセットを開発することを提案する。
- 参考スコア(独自算出の注目度): 4.042350304426974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been a plethora of work towards improving robot perception and
navigation, yet their application in hazardous environments, like during a fire
or an earthquake, is still at a nascent stage. We hypothesize two key
challenges here: first, it is difficult to replicate such scenarios in the real
world, which is necessary for training and testing purposes. Second, current
systems are not fully able to take advantage of the rich multi-modal data
available in such hazardous environments. To address the first challenge, we
propose to harness the enormous amount of visual content available in the form
of movies and TV shows, and develop a dataset that can represent hazardous
environments encountered in the real world. The data is annotated with
high-level danger ratings for realistic disaster images, and corresponding
keywords are provided that summarize the content of the scene. In response to
the second challenge, we propose a multi-modal danger estimation pipeline for
collaborative human-robot escape scenarios. Our Bayesian framework improves
danger estimation by fusing information from robot's camera sensor and language
inputs from the human. Furthermore, we augment the estimation module with a
risk-aware planner that helps in identifying safer paths out of the dangerous
environment. Through extensive simulations, we exhibit the advantages of our
multi-modal perception framework that gets translated into tangible benefits
such as higher success rate in a collaborative human-robot mission.
- Abstract(参考訳): ロボットの認識とナビゲーションを改善するための作業は数多く行われているが、火災や地震などの危険な環境での利用はまだ初期段階にある。
まず、トレーニングとテストのために必要となる、現実世界でそのようなシナリオを再現することは困難です。
第二に、現在のシステムは、このような危険な環境で利用可能な豊富なマルチモーダルデータを十分に活用できない。
最初の課題に対処するために,映画やテレビ番組の形で利用可能な膨大な量の視覚コンテンツを活用し,現実世界で遭遇する危険環境を表現できるデータセットを開発することを提案する。
リアルな災害画像のハイレベルな危険評価を付したアノテートを行い、シーンの内容を要約する対応するキーワードを提供する。
第2の課題に応えて,協調ロボットの脱出シナリオに対するマルチモーダル危険度推定パイプラインを提案する。
ベイジアンフレームワークは,ロボットのカメラセンサからの情報と人間からの言語入力を融合することにより,危険推定を改善する。
さらに,危険な環境からの安全な経路の特定を支援するリスク対応プランナにより,推定モジュールを補強する。
広範なシミュレーションを通じて,人間とロボットの協調ミッションにおいて,高い成功率などの具体的な利益に変換されるマルチモーダル知覚フレームワークの利点を示す。
関連論文リスト
- Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - ReGentS: Real-World Safety-Critical Driving Scenario Generation Made Stable [88.08120417169971]
機械学習に基づく自律運転システムは、現実世界のデータでは稀な安全クリティカルなシナリオで課題に直面していることが多い。
この研究は、軌道最適化によって複雑な現実世界の通常のシナリオを変更することによって、安全クリティカルな運転シナリオを生成することを検討する。
提案手法は、頑健なプランナーの訓練には役に立たない非現実的な発散軌道と避けられない衝突シナリオに対処する。
論文 参考訳(メタデータ) (2024-09-12T08:26:33Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Synthetic Multimodal Dataset for Empowering Safety and Well-being in
Home Environments [1.747623282473278]
本稿では,3次元仮想空間シミュレータからの映像データを知識グラフで融合した日中活動の合成マルチモーダル時間について述べる。
このデータセットはKGRC4SI(Knowledge Graph Reasoning Challenge Social Issues)のために開発された。
論文 参考訳(メタデータ) (2024-01-26T10:05:41Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Safe reinforcement learning of dynamic high-dimensional robotic tasks:
navigation, manipulation, interaction [31.553783147007177]
強化学習では、損傷を起こさない環境を探索する上で、安全はより基本的なものである。
本稿では,各種ロボット作業の強化学習のための安全探索の新たな定式化について紹介する。
我々のアプローチは、幅広い種類のロボットプラットフォームに適用され、データから学んだ複雑な衝突制約の下でも安全を強制する。
論文 参考訳(メタデータ) (2022-09-27T11:23:49Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Learning Risk-aware Costmaps for Traversability in Challenging
Environments [16.88528967313285]
トラバーサビリティコストの分散を頑健に学習するためのニューラルネットワークアーキテクチャを導入する。
ロボットの生命維持をモチベーションとするので,テールリスクの学習の観点から,この学習課題に取り組む。
提案手法は,0から1の間で所望の確率リスク閾値が与えられた場合,期待されるテールリスクを確実に学習することを示す。
論文 参考訳(メタデータ) (2021-07-25T04:12:03Z) - Vision based Pedestrian Potential Risk Analysis based on Automated
Behavior Feature Extraction for Smart and Safe City [5.759189800028578]
このような交差点に設置した道路セキュリティカメラで収集した映像を用いて,歩行者の潜在的な危険度に関する包括的分析モデルを提案する。
提案システムは、車や歩行者を自動的に検知し、フレームによって軌跡を計算し、これらの物体間の潜在的危険シーンの可能性を左右する行動特徴を抽出する。
韓国大山市の横断歩道で適用し,実現可能性と適用性を評価した。
論文 参考訳(メタデータ) (2021-05-06T11:03:10Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。