論文の概要: SANGO: Socially Aware Navigation through Grouped Obstacles
- arxiv url: http://arxiv.org/abs/2411.19497v1
- Date: Fri, 29 Nov 2024 06:29:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:18:40.794060
- Title: SANGO: Socially Aware Navigation through Grouped Obstacles
- Title(参考訳): SANGO:グループ化された障害物を通したソーシャルなナビゲーション
- Authors: Rahath Malladi, Amol Harsh, Arshia Sangwan, Sunita Chauhan, Sandeep Manjanna,
- Abstract要約: 本稿では,障害を動的にグループ化し,社会的規範に固執することによって,社会的に適切な行動を保証する新しい手法であるSANGOを紹介する。
深層強化学習を用いて、SANGOは、障害クラスタリングにDBSCANアルゴリズムを、経路計画にPPO(Pximal Policy Optimization)を活用する複雑な環境をナビゲートするエージェントを訓練する。
提案手法は, 適切な距離を維持し, 衝突率を下げることにより, 安全性と社会コンプライアンスを向上させる。
- 参考スコア(独自算出の注目度): 0.09895793818721334
- License:
- Abstract: This paper introduces SANGO (Socially Aware Navigation through Grouped Obstacles), a novel method that ensures socially appropriate behavior by dynamically grouping obstacles and adhering to social norms. Using deep reinforcement learning, SANGO trains agents to navigate complex environments leveraging the DBSCAN algorithm for obstacle clustering and Proximal Policy Optimization (PPO) for path planning. The proposed approach improves safety and social compliance by maintaining appropriate distances and reducing collision rates. Extensive experiments conducted in custom simulation environments demonstrate SANGO's superior performance in significantly reducing discomfort (by up to 83.5%), reducing collision rates (by up to 29.4%) and achieving higher successful navigation in dynamic and crowded scenarios. These findings highlight the potential of SANGO for real-world applications, paving the way for advanced socially adept robotic navigation systems.
- Abstract(参考訳): 本稿では,障害を動的にグループ化し,社会的規範に固執することによって,社会的に適切な行動を保証する新しい手法であるSANGOを紹介する。
深層強化学習を用いて、SANGOは、障害クラスタリングにDBSCANアルゴリズムを、経路計画にPPO(Pximal Policy Optimization)を活用する複雑な環境をナビゲートするエージェントを訓練する。
提案手法は, 適切な距離を維持し, 衝突率を下げることにより, 安全性と社会コンプライアンスを向上させる。
カスタムシミュレーション環境で実施された大規模な実験は、SANGOの優れた性能が、不快感を著しく低減し(83.5%まで)、衝突率を最大29.4%まで低減し、動的で混み合ったシナリオでのナビゲーションを成功させることを示した。
これらの知見は、現実世界の応用におけるSANGOの可能性を浮き彫りにし、社会に適応したロボットナビゲーションシステムへの道を開いた。
関連論文リスト
- Disentangling Uncertainty for Safe Social Navigation using Deep Reinforcement Learning [0.4218593777811082]
本研究は, DRLに基づくナビゲーションフレームワークにアレータリック, エピステミック, 予測不確実性推定を組み込む新しいアプローチを導入する。
本研究では,不確実な意思決定状況において,ロボットの社会的行動から保守的衝突回避への転換を提案する。
論文 参考訳(メタデータ) (2024-09-16T18:49:38Z) - SoNIC: Safe Social Navigation with Adaptive Conformal Inference and Constrained Reinforcement Learning [26.554847852013737]
強化学習(Reinforcement Learning, RL)は、人間によって設計されたルールや介入なしに、社会ロボットが軌道を生成できるようにする。
本稿では,適応整合性推論(ACI)と制約強化学習(CRL)を統合し,ソーシャルナビゲーションのための安全なポリシーを学習する最初のアルゴリズムであるSoNICを提案する。
本手法は,社会規範の安全性と順守の両面において,最先端のベースラインを大きなマージンで上回り,アウト・オブ・ディストリビューションシナリオに対する強い堅牢性を示す。
論文 参考訳(メタデータ) (2024-07-24T17:57:21Z) - Belief Aided Navigation using Bayesian Reinforcement Learning for Avoiding Humans in Blind Spots [0.0]
本研究では、部分的に観測可能なマルコフ決定プロセスフレームワークに基づく新しいアルゴリズムBNBRL+を導入し、観測不能領域のリスクを評価する。
ロボット、人間、そして推論された信念のダイナミクスを統合し、ナビゲーションパスを決定し、報酬関数に社会規範を埋め込む。
このモデルでは、視認性に限界があり、障害物を動的に回避できるため、自動運転車の安全性と信頼性を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-03-15T08:50:39Z) - Robust Driving Policy Learning with Guided Meta Reinforcement Learning [49.860391298275616]
本稿では,ソーシャルカーの多種多様な運転方針を一つのメタ政治として訓練する効率的な方法を提案する。
ソーシャルカーのインタラクションに基づく報酬関数をランダム化することにより、多様な目的を生み出し、メタ政治を効率的に訓練することができる。
本研究では,社会自動車が学習メタ政治によって制御される環境を利用して,エゴ自動車の運転方針の堅牢性を高めるためのトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-07-19T17:42:36Z) - iPLAN: Intent-Aware Planning in Heterogeneous Traffic via Distributed
Multi-Agent Reinforcement Learning [57.24340061741223]
本稿では,高密度および不均一な交通シナリオにおける軌跡や意図を予測できる分散マルチエージェント強化学習(MARL)アルゴリズムを提案する。
インテント対応プランニングのアプローチであるiPLANにより、エージェントは近くのドライバーの意図をローカルな観察からのみ推測できる。
論文 参考訳(メタデータ) (2023-06-09T20:12:02Z) - CCE: Sample Efficient Sparse Reward Policy Learning for Robotic Navigation via Confidence-Controlled Exploration [72.24964965882783]
CCE (Confidence-Controlled Exploration) は、ロボットナビゲーションのようなスパース報酬設定のための強化学習アルゴリズムのトレーニングサンプル効率を高めるために設計された。
CCEは、勾配推定と政策エントロピーの間の新しい関係に基づいている。
我々は、CCEが一定軌跡長とエントロピー正規化を用いる従来の手法より優れるシミュレーションおよび実世界の実験を通して実証する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Safety-compliant Generative Adversarial Networks for Human Trajectory
Forecasting [95.82600221180415]
群衆における人間予測は、社会的相互作用をモデル化し、衝突のないマルチモーダル分布を出力するという課題を提示する。
SGANv2は、動き時間相互作用モデリングと変圧器に基づく識別器設計を備えた安全に配慮したSGANアーキテクチャである。
論文 参考訳(メタデータ) (2022-09-25T15:18:56Z) - SoLo T-DIRL: Socially-Aware Dynamic Local Planner based on
Trajectory-Ranked Deep Inverse Reinforcement Learning [4.008601554204486]
本研究は,最近提案されたT-MEDIRL(T-MEDIRL)に基づく,混在環境における動的局所プランナのための新しい枠組みを提案する。
ソーシャルナビゲーション問題に対処するため,我々のマルチモーダル学習プランナーは,T-MEDIRLパイプラインにおける社会的相互作用の要因だけでなく,社会的相互作用の要因も考慮し,人間の実演から報酬関数を学習する。
評価の結果,ロボットが混み合った社会環境をナビゲートし,その成功率やナビゲーションの点で最先端の社会ナビゲーション手法より優れていることがわかった。
論文 参考訳(メタデータ) (2022-09-16T15:13:33Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z) - L2B: Learning to Balance the Safety-Efficiency Trade-off in Interactive
Crowd-aware Robot Navigation [11.893324664457548]
Learning to Balance(L2B)フレームワークにより、モバイルロボットエージェントは、群衆との衝突を避けることにより、目的地に向かって安全に操縦することができる。
観衆を意識したナビゲーションにおける安全性と効率の要件は,エージェントと観衆の間での社会的ジレンマの存在においてトレードオフがあることを観察する。
我々は,我々のL2Bフレームワークを挑戦的な群集シミュレーションで評価し,航法成功率と衝突速度の両方の観点から,最先端の航法アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-20T11:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。