論文の概要: Generating Robot Constitutions & Benchmarks for Semantic Safety
- arxiv url: http://arxiv.org/abs/2503.08663v1
- Date: Tue, 11 Mar 2025 17:50:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:46:32.790320
- Title: Generating Robot Constitutions & Benchmarks for Semantic Safety
- Title(参考訳): セマンティック安全のためのロボット構成とベンチマークの作成
- Authors: Pierre Sermanet, Anirudha Majumdar, Alex Irpan, Dmitry Kalashnikov, Vikas Sindhwani,
- Abstract要約: ロボット脳のセマンティック安全性を評価するためのASIMOVベンチマークをリリースする。
実世界のデータからロボットの構成を自動的に生成するフレームワークを開発した。
動作規則書にニュアンスを導入可能な,新しい自動改善プロセスを提案する。
- 参考スコア(独自算出の注目度): 22.889717765617394
- License:
- Abstract: Until recently, robotics safety research was predominantly about collision avoidance and hazard reduction in the immediate vicinity of a robot. Since the advent of large vision and language models (VLMs), robots are now also capable of higher-level semantic scene understanding and natural language interactions with humans. Despite their known vulnerabilities (e.g. hallucinations or jail-breaking), VLMs are being handed control of robots capable of physical contact with the real world. This can lead to dangerous behaviors, making semantic safety for robots a matter of immediate concern. Our contributions in this paper are two fold: first, to address these emerging risks, we release the ASIMOV Benchmark, a large-scale and comprehensive collection of datasets for evaluating and improving semantic safety of foundation models serving as robot brains. Our data generation recipe is highly scalable: by leveraging text and image generation techniques, we generate undesirable situations from real-world visual scenes and human injury reports from hospitals. Secondly, we develop a framework to automatically generate robot constitutions from real-world data to steer a robot's behavior using Constitutional AI mechanisms. We propose a novel auto-amending process that is able to introduce nuances in written rules of behavior; this can lead to increased alignment with human preferences on behavior desirability and safety. We explore trade-offs between generality and specificity across a diverse set of constitutions of different lengths, and demonstrate that a robot is able to effectively reject unconstitutional actions. We measure a top alignment rate of 84.3% on the ASIMOV Benchmark using generated constitutions, outperforming no-constitution baselines and human-written constitutions. Data is available at asimov-benchmark.github.io
- Abstract(参考訳): 最近まで、ロボットの安全性の研究は主に衝突回避とロボットのすぐ近くでのハザード低減に関するものだった。
大きな視覚と言語モデル(VLM)の出現以来、ロボットはより高レベルのセマンティックなシーン理解や人間との自然言語の相互作用も可能になっている。
既知の脆弱性(幻覚や脱獄など)にもかかわらず、VLMは現実世界と物理的に接触できるロボットを制御している。
これは危険な行動を引き起こす可能性があり、ロボットのセマンティック安全性を直ちに懸念する。
ASIMOVベンチマーク(ASIMOV Benchmark)は、ロボット脳として機能する基盤モデルのセマンティック安全性を評価し改善するための、大規模かつ包括的なデータセットの集合である。
テキストおよび画像生成技術を活用することで、現実の視覚シーンから望ましくない状況や病院からの人的傷害報告を生成する。
第2に,実世界のデータからロボットの構成を自動的に生成し,構成的AI機構を用いてロボットの動作を制御するためのフレームワークを開発する。
本研究では,行動規範にニュアンスを導入できる新しい自動改善プロセスを提案する。
異なる長さの様々な構成の集合における一般性と特異性の間のトレードオフを探索し、ロボットが非違憲行為を効果的に拒否できることを実証する。
ASIMOVベンチマークの上位アライメントレートは84.3%で、生成したコンスティチューションを用いて測定し、非コンスティチューションベースラインと人間によるコンスティチューションを上回った。
データはasimov-benchmark.github.ioで公開されている。
関連論文リスト
- GNN-based Decentralized Perception in Multirobot Systems for Predicting Worker Actions [12.260881600042374]
本稿では,移動ロボットが人間の行動に関する情報を分散的に理解し,共有することのできる認識フレームワークを提案する。
スウォームにインスパイアされた意思決定プロセスは、すべてのロボットが人間の行動の統一的な解釈に合意することを保証するために使用される。
論文 参考訳(メタデータ) (2025-01-08T00:06:38Z) - $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Know your limits! Optimize the robot's behavior through self-awareness [11.021217430606042]
最近の人間ロボット模倣アルゴリズムは、高精度な人間の動きを追従することに焦点を当てている。
本稿では,ロボットが参照を模倣する際の動作を予測できるディープラーニングモデルを提案する。
我々のSAW(Self-AWare Model)は、転倒確率、基準運動への固執、滑らかさといった様々な基準に基づいて、潜在的なロボットの挙動をランク付けする。
論文 参考訳(メタデータ) (2024-09-16T14:14:58Z) - GRUtopia: Dream General Robots in a City at Scale [65.08318324604116]
本稿では,各種ロボットを対象とした対話型3D社会「GRUtopia」について紹介する。
GRScenesには100万のインタラクティブな微妙な注釈付きシーンが含まれており、都市規模の環境に自由に組み合わせることができる。
GRResidentsはLarge Language Model (LLM)によって駆動されるNon-Player Character (NPC)システムである。
論文 参考訳(メタデータ) (2024-07-15T17:40:46Z) - IRASim: Learning Interactive Real-Robot Action Simulators [24.591694756757278]
本稿では,ロボットアームが与えられた動作軌跡を実行する様子をリアルに映像化するための新しい手法IRASimを提案する。
提案手法の有効性を検証するため,3つの実ロボットデータセットに基づいて,新しいベンチマーク IRASim Benchmark を作成する。
その結果, IRASimはすべての基準法より優れており, 人的評価に好適であることが示唆された。
論文 参考訳(メタデータ) (2024-06-20T17:50:16Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - Cybersecurity and Embodiment Integrity for Modern Robots: A Conceptual Framework [3.29295880899738]
我々は、異なるデバイスに対するサイバー攻撃が、ロボットのタスクを完了させる能力に根本的に異なる結果をもたらすことを示す。
我々はまた、現代のロボットは、そのような側面に関して自己認識を持つべきだと主張する。
これらの提案を達成するには、ロボットは概念的にデバイスとタスクをリンクする少なくとも3つの特性を持つ必要がある。
論文 参考訳(メタデータ) (2024-01-15T15:46:38Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。