論文の概要: Human-Centric Goal Reasoning with Ripple-Down Rules
- arxiv url: http://arxiv.org/abs/2402.10224v1
- Date: Tue, 30 Jan 2024 07:52:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-25 17:15:12.827380
- Title: Human-Centric Goal Reasoning with Ripple-Down Rules
- Title(参考訳): リップルダウンルールを用いた人間中心ゴール推論
- Authors: Kenji Brameld, Germ\'an Castro, Claude Sammut, Mark Roberts, David W.
Aha
- Abstract要約: ActorSimは海軍研究所で開発された目標推論フレームワークである。
この作業は、ActorSimを拡張して、人間のトレーナーがシステムによる決定に異議を唱えたときに、デモンストレーションによって学習する能力を提供する。
学習コンポーネントは、Ripple-Down Rules(RDR)を使用して、将来同様のケースを正しく扱うために、新たな決定ルールを構築する。
- 参考スコア(独自算出の注目度): 1.7874338080799543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ActorSim is a goal reasoning framework developed at the Naval Research
Laboratory. Originally, all goal reasoning rules were hand-crafted. This work
extends ActorSim with the capability of learning by demonstration, that is,
when a human trainer disagrees with a decision made by the system, the trainer
can take over and show the system the correct decision. The learning component
uses Ripple-Down Rules (RDR) to build new decision rules to correctly handle
similar cases in the future. The system is demonstrated using the RoboCup
Rescue Agent Simulation, which simulates a city-wide disaster, requiring
emergency services, including fire, ambulance and police, to be dispatched to
different sites to evacuate civilians from dangerous situations. The RDRs are
implemented in a scripting language, FrameScript, which is used to mediate
between ActorSim and the agent simulator. Using Ripple-Down Rules, ActorSim can
scale to an order of magnitude more goals than the previous version.
- Abstract(参考訳): ActorSimは海軍研究所で開発された目標推論フレームワークである。
当初、全てのゴール推論ルールは手作りであった。
本研究は,人間のトレーナーがシステムによる決定に同意しない場合,トレーナーがシステムを引き継ぎ,正しい判断を示すという,実演による学習能力によってアクタシムを拡張するものである。
学習コンポーネントは、Ripple-Down Rules(RDR)を使用して、将来同様のケースを正しく扱うために、新たな決定ルールを構築する。
このシステムは、都市全体の災害をシミュレートするrobocup rescue agentシミュレーションを使用して実証され、火災、救急車、警察など緊急サービスを異なる場所に派遣して民間人を危険な状況から避難させる必要がある。
rdrは、actorimとエージェントシミュレータの間を仲介するために使用されるスクリプト言語であるframescriptで実装されている。
Ripple-Down Rulesを使用すると、ActorSimは以前のバージョンよりも桁違いに多くの目標を達成できる。
関連論文リスト
- UniSim: A Neural Closed-Loop Sensor Simulator [76.79818601389992]
センサ搭載車両によって記録された1つのログをキャプチャする、ニューラルネットワークシミュレータUniSimを提示する。
UniSimは、静的バックグラウンドと動的アクターの両方を再構築するために、ニューラルネットワーク機能グリッドを構築する。
動的オブジェクトの学習可能な事前情報を組み込んで、畳み込みネットワークを利用して未確認領域を完成させる。
論文 参考訳(メタデータ) (2023-08-03T17:56:06Z) - Robust Visual Sim-to-Real Transfer for Robotic Manipulation [79.66851068682779]
シミュレーションにおけるビジュモータポリシーの学習は、現実世界よりも安全で安価である。
しかし、シミュレーションデータと実データとの相違により、シミュレータ訓練されたポリシーは実際のロボットに転送されると失敗することが多い。
視覚的なsim-to-real領域ギャップを埋める一般的なアプローチは、ドメインランダム化(DR)である。
論文 参考訳(メタデータ) (2023-07-28T05:47:24Z) - DeXtreme: Transfer of Agile In-hand Manipulation from Simulation to
Reality [64.51295032956118]
我々は人型ロボットの手で頑健な操作を行える政策を訓練する。
本研究は,各種ハードウェアおよびシミュレータのデクスタラス操作におけるsim-to-real転送の可能性を再確認する。
論文 参考訳(メタデータ) (2022-10-25T01:51:36Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - A Survey on Reinforcement Learning Methods in Character Animation [22.3342752080749]
強化学習(Reinforcement Learning)は、エージェントがシーケンシャルな決定をするためにどのようにトレーニングできるかに焦点を当てた機械学習の分野である。
本稿では,現代のDeep Reinforcement Learning法を調査し,キャラクタアニメーションにおける応用の可能性について考察する。
論文 参考訳(メタデータ) (2022-03-07T23:39:00Z) - Robotic Lever Manipulation using Hindsight Experience Replay and Shapley
Additive Explanations [0.0]
本稿では,説明可能なDeep Reinforcement Learningを用いたロボットレバー制御について述べる。
まず、Deep Deterministic Policy GradientアルゴリズムとHindsight Experience Replay技術を用いてポリシーを訓練する。
そして、実際の環境にポリシーを移し、ほとんどのエピソードでシミュレーションされた環境と同等のパフォーマンスを達成する。
政策の決定を説明するために,実環境におけるエピソードに基づいた説明モデルを作成するため,SHAP法を用いる。
論文 参考訳(メタデータ) (2021-10-07T09:24:34Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Using Soft Actor-Critic for Low-Level UAV Control [0.0]
本稿では,ソフト・アクタ・クリティカル (SAC) アルゴリズムを目標タスクにおいて低レベルに制御するためのフレームワークを提案する。
SACは堅牢なポリシーを学ぶだけでなく、目に見えないシナリオにも対処できる。
論文 参考訳(メタデータ) (2020-10-05T19:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。