論文の概要: Coloring Between the Lines: Personalization in the Null Space of Planning Constraints
- arxiv url: http://arxiv.org/abs/2505.15503v1
- Date: Wed, 21 May 2025 13:24:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.658983
- Title: Coloring Between the Lines: Personalization in the Null Space of Planning Constraints
- Title(参考訳): ライン間の色付け:計画制約のNull空間におけるパーソナライズ
- Authors: Tom Silver, Rajat Kumar Jenamani, Ziang Liu, Ben Dodson, Tapomayukh Bhattacharjee,
- Abstract要約: 汎用ロボットは、長期ユーザーの多様なニーズや嗜好を満たすために、夢中をパーソナライズする必要がある。
本稿では,制約満足度問題のnull空間を利用したパーソナライズ手法であるCBTLを提案する。
CBTL は,(1) 多様なシミュレーション環境,(2) Web ベースのユーザスタディ,(3) リアルタイムロボット支援給餌システムにおいて評価される。
- 参考スコア(独自算出の注目度): 6.940520440909961
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generalist robots must personalize in-the-wild to meet the diverse needs and preferences of long-term users. How can we enable flexible personalization without sacrificing safety or competency? This paper proposes Coloring Between the Lines (CBTL), a method for personalization that exploits the null space of constraint satisfaction problems (CSPs) used in robot planning. CBTL begins with a CSP generator that ensures safe and competent behavior, then incrementally personalizes behavior by learning parameterized constraints from online interaction. By quantifying uncertainty and leveraging the compositionality of planning constraints, CBTL achieves sample-efficient adaptation without environment resets. We evaluate CBTL in (1) three diverse simulation environments; (2) a web-based user study; and (3) a real-robot assisted feeding system, finding that CBTL consistently achieves more effective personalization with fewer interactions than baselines. Our results demonstrate that CBTL provides a unified and practical approach for continual, flexible, active, and safe robot personalization. Website: https://emprise.cs.cornell.edu/cbtl/
- Abstract(参考訳): 汎用ロボットは、長期ユーザーの多様なニーズや嗜好を満たすために、夢中をパーソナライズする必要がある。
安全や能力を犠牲にすることなく、フレキシブルなパーソナライゼーションを実現するには?
本稿では,ロボット計画における制約満足度問題 (CSP) のヌル空間を利用したパーソナライズ手法であるCBTLを提案する。
CBTLは、安全で有能な振る舞いを保証するCSPジェネレータから始まり、オンラインインタラクションからパラメータ化された制約を学習することで、行動の段階的にパーソナライズする。
不確実性を定量化し、計画制約の構成性を活用することにより、CBTLは環境リセットなしにサンプル効率の適応を実現する。
CBTLは,(1)Webベースのユーザスタディ,(3)リアルタイムロボット支援給餌システム,の3つの多様なシミュレーション環境において評価され,CBTLはベースラインよりも少ないインタラクションで,より効果的なパーソナライズを実現している。
以上の結果から,CBTLは連続的,柔軟,能動的,安全なロボットパーソナライゼーションのための統一的で実践的なアプローチを提供することが示された。
ウェブサイト:https://emprise.cs.cornell.edu/cbtl/
関連論文リスト
- Optimal Interactive Learning on the Job via Facility Location Planning [33.2668546005654]
協調型ロボットは、ユーザを圧倒することなく、新しいタスクやユーザの好みに継続的に適応しなければならない。
タスク列間の人間の労力を最小限に抑えるマルチタスクインタラクションプランナであるCOILを提案する。
我々は,タスク完了を成功させながら,人間に割り当てる作業量を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2025-05-01T12:45:09Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Trust the PRoC3S: Solving Long-Horizon Robotics Problems with LLMs and Constraint Satisfaction [38.683780057806516]
ロボット工学を応用した事前学習型大規模言語モデル(LLM)の最近の進歩は、単純なロボットタスクにおいてオープンな目標を達成するために、個々のスキルのセットをシークエンシングする能力を示している。
本稿では,機械的,幾何学的,物理的制約の集合の違反を避けることが必要な,連続パラメータ化スキルの集合に対するLLM計画の課題について検討する。
3つの異なる3次元領域にわたる実験により、提案手法であるPRoC3Sは、既存のベースラインよりもはるかに効率的かつ効果的に、連続パラメータに現実的な制約を課した幅広い複雑な操作タスクを解くことができることを示した。
論文 参考訳(メタデータ) (2024-06-08T20:56:14Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Safe Reinforcement Learning Using Black-Box Reachability Analysis [20.875010584486812]
強化学習(Reinforcement Learning, RL)は、不確実な環境下でのロボットの動き計画と制御を高度に行うことができる。
広範な展開を正当化するためには、ロボットは性能を犠牲にすることなく安全上の制約を尊重しなければならない。
我々は3つの主要コンポーネントを持つブラックボックス到達可能性に基づく安全層(BRSL)を提案する。
論文 参考訳(メタデータ) (2022-04-15T10:51:09Z) - BarrierNet: A Safety-Guaranteed Layer for Neural Networks [50.86816322277293]
BarrierNetは、ニューラルコントローラの安全性の制約が環境の変化に適応できるようにする。
本研究では,2次元空間と3次元空間における交通統合やロボットナビゲーションといった一連の制御問題について評価する。
論文 参考訳(メタデータ) (2021-11-22T15:38:11Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。