論文の概要: Auditing Robot Learning for Safety and Compliance during Deployment
- arxiv url: http://arxiv.org/abs/2110.05702v1
- Date: Tue, 12 Oct 2021 02:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-14 01:42:28.057110
- Title: Auditing Robot Learning for Safety and Compliance during Deployment
- Title(参考訳): デプロイ中の安全・コンプライアンスのためのロボット学習
- Authors: Homanga Bharadhwaj
- Abstract要約: 我々は、ロボット学習アルゴリズムを人間との互換性を確認するのにいかに最適かを研究する。
これは、ロボット学習コミュニティ全体の努力を必要とする難しい問題だと考えています。
- 参考スコア(独自算出の注目度): 4.742825811314168
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots of the future are going to exhibit increasingly human-like and
super-human intelligence in a myriad of different tasks. They are also likely
going to fail and be incompliant with human preferences in increasingly subtle
ways. Towards the goal of achieving autonomous robots, the robot learning
community has made rapid strides in applying machine learning techniques to
train robots through data and interaction. This makes the study of how best to
audit these algorithms for checking their compatibility with humans, pertinent
and urgent. In this paper, we draw inspiration from the AI Safety and Alignment
communities and make the case that we need to urgently consider ways in which
we can best audit our robot learning algorithms to check for failure modes, and
ensure that when operating autonomously, they are indeed behaving in ways that
the human algorithm designers intend them to. We believe that this is a
challenging problem that will require efforts from the entire robot learning
community, and do not attempt to provide a concrete framework for auditing.
Instead, we outline high-level guidance and a possible approach towards
formulating this framework which we hope will serve as a useful starting point
for thinking about auditing in the context of robot learning.
- Abstract(参考訳): 未来のロボットは、さまざまなタスクで人間らしく超人間的な知性を発揮するようになるだろう。
彼らはまた、失敗し、より微妙な方法で人間の好みに従わない可能性が高い。
自律型ロボットの実現という目標に向けて、ロボット学習コミュニティは、データとインタラクションを通じてロボットを訓練するための機械学習技術の適用を、急速に進めてきた。
これにより、これらのアルゴリズムが人間との互換性、関係性、緊急性をチェックするのに最適な方法が研究される。
本稿では,aiの安全性とアライメントのコミュニティからインスピレーションを得て,ロボット学習アルゴリズムを最もよく監査し,障害モードをチェックし,自律的に運用する場合,人間のアルゴリズム設計者が意図する方法で行動することを保証する方法について,緊急に検討する必要があることを述べる。
これはロボット学習コミュニティ全体の努力を必要とする課題であり、監査のための具体的なフレームワークを提供しようとはしていません。
その代わり、ロボット学習の文脈で監査を考える上で有用な出発点として、我々は、高レベルのガイダンスと、このフレームワークの定式化への可能なアプローチを概説する。
関連論文リスト
- Growing from Exploration: A self-exploring framework for robots based on
foundation models [13.250831101705694]
我々は、ロボットが人間の介入なしに自律的に探索し学習することを可能にするGExpというフレームワークを提案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに、一連の自己生成タスクで環境を理解し、探索するように促す。
論文 参考訳(メタデータ) (2024-01-24T14:04:08Z) - Exploring AI-enhanced Shared Control for an Assistive Robotic Arm [5.461938536945723]
特に,アートインテリジェンス(AI)を共有制御パラダイムに統合する方法について検討する。
特に,人間とロボットのインターフェースの簡潔な要件に着目した。
論文 参考訳(メタデータ) (2023-06-23T14:19:56Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Aligning Robot Representations with Humans [5.482532589225552]
主な問題は、ある環境で学んだ知識を別の環境に移す方法である。
我々は、人間が世界でシステム成功の究極的な評価者になるので、ロボットに重要なタスクの側面を伝えるのに最も適していると仮定する。
このアプローチをインタラクティブシステムの構築に利用し、高度な協調ロボットをより良く開発するための今後の方向性を提供する3つの分野を強調します。
論文 参考訳(メタデータ) (2022-05-15T15:51:05Z) - Back to Reality for Imitation Learning [8.57914821832517]
模倣学習と一般のロボット学習は、ロボット工学のブレークスルーではなく、機械学習のブレークスルーによって生まれた。
私たちは、現実世界のロボット学習のより良い指標は時間効率であり、人間の真のコストをモデル化するものだと考えています。
論文 参考訳(メタデータ) (2021-11-25T02:03:52Z) - Dual-Arm Adversarial Robot Learning [0.6091702876917281]
ロボット学習のためのプラットフォームとしてデュアルアーム設定を提案する。
このセットアップの潜在的なメリットと、追求できる課題と研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-10-15T12:51:57Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Hierarchical Affordance Discovery using Intrinsic Motivation [69.9674326582747]
本研究では,移動ロボットの価格学習を支援するために,本質的なモチベーションを用いたアルゴリズムを提案する。
このアルゴリズムは、事前にプログラムされたアクションなしで、相互に関連のある価格を自律的に発見し、学習し、適応することができる。
一度学習すると、これらの余裕はアルゴリズムによって様々な困難を伴うタスクを実行するために一連のアクションを計画するために使われる。
論文 参考訳(メタデータ) (2020-09-23T07:18:21Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z) - Thinking While Moving: Deep Reinforcement Learning with Concurrent
Control [122.49572467292293]
本研究では,制御システムの時間的進化とともに,ポリシーからのアクションのサンプリングを同時に行わなければならないような環境下での強化学習について検討する。
人や動物のように、ロボットは思考と移動を同時に行わなければならず、前の動作が完了する前に次の動作を決定する。
論文 参考訳(メタデータ) (2020-04-13T17:49:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。