論文の概要: Safe Explicable Robot Planning
- arxiv url: http://arxiv.org/abs/2304.03773v1
- Date: Tue, 4 Apr 2023 21:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 22:23:43.018482
- Title: Safe Explicable Robot Planning
- Title(参考訳): 安全な説明可能なロボット計画
- Authors: Akkamahadevi Hanni, Andrew Boateng and Yu Zhang
- Abstract要約: 未解決のままの重大な問題のひとつは、説明可能な意思決定時の安全性だ。
本稿では、安全境界の仕様をサポートするための説明可能な計画を拡張した安全説明計画(SEP)を提案する。
このような定式化の下で、安全な説明可能なポリシーと近似解を返却する、新規で効率的な方法を提案する。
- 参考スコア(独自算出の注目度): 3.8355893560092893
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human expectations stem from their knowledge of the others and the world.
Where human-robot interaction is concerned, such knowledge about the robot may
be inconsistent with the ground truth, resulting in the robot not meeting its
expectations. Explicable planning was previously introduced as a novel planning
approach to reconciling human expectations and the optimal robot behavior for
more interpretable robot decision-making. One critical issue that remains
unaddressed is safety during explicable decision-making which can lead to
explicable behaviors that are unsafe. We propose Safe Explicable Planning
(SEP), which extends explicable planning to support the specification of a
safety bound. The objective of SEP is to find a policy that generates a
behavior close to human expectations while satisfying the safety constraints
introduced by the bound, which is a special case of multi-objective
optimization where the solution to SEP lies on the Pareto frontier. Under such
a formulation, we propose a novel and efficient method that returns the safe
explicable policy and an approximate solution. In addition, we provide
theoretical proof for the optimality of the exact solution under the
designer-specified bound. Our evaluation results confirm the applicability and
efficacy of our method for safe explicable planning.
- Abstract(参考訳): 人間の期待は、他人や世界の知識に起因している。
人間とロボットの相互作用が関係している場合、ロボットに関するそのような知識は根底的な真実と矛盾する可能性がある。
説明可能な計画は、人間の期待を和らげる新しい計画手法として導入され、より解釈可能なロボット決定のための最適なロボット行動が導入された。
問題のひとつは、説明不能な意思決定時の安全性です。
我々は,安全境界の仕様をサポートするために,安全計画を拡張した安全計画(sep)を提案する。
SEPの目的は,SEPの解決策がパレートフロンティアに置かれる多目的最適化の特別な事例である,境界によってもたらされる安全制約を満足しつつ,人間の期待に近い行動を生成する政策を見つけることである。
このような定式化の下で、安全な説明可能なポリシーと近似解を返す新しい効率的な方法を提案する。
さらに,設計者特定境界下での厳密解の最適性に関する理論的証明を提供する。
提案手法の有効性と有効性について検討し,提案手法の有効性を検証した。
関連論文リスト
- Introspective Planning: Guiding Language-Enabled Agents to Refine Their
Own Uncertainty [0.7447472799619002]
大規模言語モデル(LLM)は高度な推論能力を示し、ロボットが自然言語の指示を理解し、高レベルの行動を戦略的に計画することを可能にする。
LLMの幻覚は、ロボットがユーザーの目標と不一致の計画を確実に実行したり、極端な場合、安全ではない可能性がある。
本稿では,ロボットタスク実行のための不確実性を考慮した計画作成において,LLMを指導する体系的手法としての内省的計画の概念を考察する。
論文 参考訳(メタデータ) (2024-02-09T16:40:59Z) - Conformal Decision Theory: Safe Autonomous Decisions from Imperfect
Predictions [86.20287931084626]
不完全な機械学習予測にも拘わらず、安全な自律的意思決定を実現するためのフレームワークであるコンフォーマル決定理論を導入する。
私たちのアルゴリズムが生み出す決定は、リスクが低いという証明可能な統計的保証があるという意味では安全です。
実験は、人間のまわりのロボットの動き計画、自動株式取引、ロボット製造において、我々のアプローチの有用性を実証する。
論文 参考訳(メタデータ) (2023-10-09T17:59:30Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Reinforcement Learning with a Terminator [80.34572413850186]
我々は, TerMDP のパラメータを学習し, 推定問題の構造を活用し, 状態ワイドな信頼境界を提供する。
我々はこれらを用いて証明可能な効率のよいアルゴリズムを構築し、終端を考慮し、その後悔を抑える。
論文 参考訳(メタデータ) (2022-05-30T18:40:28Z) - SHARP: Shielding-Aware Robust Planning for Safe and Efficient
Human-Robot Interaction [5.804727815849655]
シールド」制御スキームは、安全クリティカルなイベントが差し迫った場合に、ロボットの名目上の計画と安全フォールバック戦略をオーバーライドする。
本研究では,ロボットが将来の遮蔽イベントを明示的に考慮し,効率的に計画できる新しい遮蔽型計画手法を提案する。
論文 参考訳(メタデータ) (2021-10-02T17:01:59Z) - Deceptive Decision-Making Under Uncertainty [25.197098169762356]
タスクを遂行しながら,外部の観察者の意図を判断できる自律エージェントの設計について検討する。
エージェントの動作をマルコフ決定プロセスとしてモデル化することにより、エージェントが複数の潜在的な目標を達成するための設定を考える。
本稿では,最大エントロピーの原理に基づいて観測者予測をモデル化し,認識戦略を効率的に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-09-14T14:56:23Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Risk-Constrained Interactive Safety under Behavior Uncertainty for
Autonomous Driving [0.0]
許可された計画領域を制限する安全封筒は、行動の不確実性の存在下で解釈可能な安全性をもたらす。
人間は、安全封筒に違反する確率的リスクを受け入れることによって、密集した交通における安全と効率のバランスをとる。
論文 参考訳(メタデータ) (2021-02-05T08:33:39Z) - The Importance of Prior Knowledge in Precise Multimodal Prediction [71.74884391209955]
道路にはよく定義された地形、地形、交通規則がある。
本稿では,構造的事前を損失関数として組み込むことを提案する。
実世界の自動運転データセットにおけるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-06-04T03:56:11Z) - Online Mapping and Motion Planning under Uncertainty for Safe Navigation
in Unknown Environments [3.2296078260106174]
本論文は,確率論的安全保証者によるオンラインで実現可能な動作のマッピングと計画のための不確実性に基づくフレームワークを提案する。
提案手法は, 環境の不確実性を意識した環境表現を構築するために周囲をマッピングし, (i) 信念空間の多層サンプリングベースプランナーを通して, キノダイナミックに実現可能で確率論的に安全な目標に反復的に(re)計画を行うことにより, 動き, 確率論的安全性, オンライン計算制約を取り扱う。
論文 参考訳(メタデータ) (2020-04-26T08:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。