論文の概要: Learning Multimodal AI Algorithms for Amplifying Limited User Input into High-dimensional Control Space
- arxiv url: http://arxiv.org/abs/2505.11366v1
- Date: Fri, 16 May 2025 15:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.467447
- Title: Learning Multimodal AI Algorithms for Amplifying Limited User Input into High-dimensional Control Space
- Title(参考訳): 高次元制御空間への限られたユーザ入力を増幅するマルチモーダルAIアルゴリズムの学習
- Authors: Ali Rabiee, Sima Ghafoori, MH Farhadi, Robert Beyer, Xiangyu Bai, David J Lin, Sarah Ostadabbas, Reza Abiri,
- Abstract要約: 現在の侵襲的補助技術は、重度麻痺患者の高次元運動制御信号を推定するために設計されている。
非侵襲的な代替手段は、しばしばアーティファクトを起こしやすい信号に依存し、長いユーザートレーニングを必要とし、厳密なタスクに対して堅牢な高次元制御を提供するのに苦労する。
本研究では、失われた運動機能に対するインテリジェント補償機構として、人間中心型マルチモーダルAIアプローチを提案する。
- 参考スコア(独自算出の注目度): 7.504214864070018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current invasive assistive technologies are designed to infer high-dimensional motor control signals from severely paralyzed patients. However, they face significant challenges, including public acceptance, limited longevity, and barriers to commercialization. Meanwhile, noninvasive alternatives often rely on artifact-prone signals, require lengthy user training, and struggle to deliver robust high-dimensional control for dexterous tasks. To address these issues, this study introduces a novel human-centered multimodal AI approach as intelligent compensatory mechanisms for lost motor functions that could potentially enable patients with severe paralysis to control high-dimensional assistive devices, such as dexterous robotic arms, using limited and noninvasive inputs. In contrast to the current state-of-the-art (SoTA) noninvasive approaches, our context-aware, multimodal shared-autonomy framework integrates deep reinforcement learning algorithms to blend limited low-dimensional user input with real-time environmental perception, enabling adaptive, dynamic, and intelligent interpretation of human intent for complex dexterous manipulation tasks, such as pick-and-place. The results from our ARAS (Adaptive Reinforcement learning for Amplification of limited inputs in Shared autonomy) trained with synthetic users over 50,000 computer simulation episodes demonstrated the first successful implementation of the proposed closed-loop human-in-the-loop paradigm, outperforming the SoTA shared autonomy algorithms. Following a zero-shot sim-to-real transfer, ARAS was evaluated on 23 human subjects, demonstrating high accuracy in dynamic intent detection and smooth, stable 3D trajectory control for dexterous pick-and-place tasks. ARAS user study achieved a high task success rate of 92.88%, with short completion times comparable to those of SoTA invasive assistive technologies.
- Abstract(参考訳): 現在の侵襲的補助技術は、重度麻痺患者の高次元運動制御信号を推定するために設計されている。
しかし、公共の受け入れ、寿命の制限、商業化への障壁など、大きな課題に直面している。
一方、非侵襲的な代替手段は、しばしばアーティファクトの発する信号に依存し、長いユーザートレーニングを必要とし、巧妙なタスクに対して堅牢な高次元制御を実現するのに苦労する。
これらの課題に対処するため,本研究では, 高度麻痺患者に対して, 限定的かつ非侵襲的な入力を用いて, 遠心性ロボットアームなどの高次元補助装置を制御可能な, 失った運動機能に対するインテリジェント補償機構として, 人中心型マルチモーダルAIアプローチを導入する。
現状の最先端(SoTA)非侵襲的アプローチとは対照的に,我々のコンテキスト認識,マルチモーダル共有自律化フレームワークは深層強化学習アルゴリズムを統合し,限られた低次元ユーザ入力とリアルタイム環境認識をブレンドし,ピック・アンド・プレイスのような複雑な操作タスクに対する人間の意図の適応的,動的,インテリジェントな解釈を可能にする。
5万回以上のコンピュータシミュレーションエピソードで学習したARAS(Adaptive Reinforcement Learning for Amplification of limited inputs in Shared autonomy)の結果は、提案したクローズドループ・ヒューマン・イン・ザ・ループ・パラダイムの実装を初めて成功させ、SoTAの共有自律性アルゴリズムを上回りました。
ゼロショット・シミュレート・トゥ・リアル・トランスファー後,23名の被験者を対象にARASを評価し,動的意図検出の精度と3次元スムーズで安定な3次元軌道制御について検討した。
ARASユーザスタディは92.88%という高いタスク成功率を達成した。
関連論文リスト
- Sim-to-Real Reinforcement Learning for Vision-Based Dexterous Manipulation on Humanoids [61.033745979145536]
本研究は,ヒューマノイドの具体化におけるコンタクトリッチな操作タスクの集合を解決するために,強化学習を適用する上で重要な課題について検討する。
私たちの主なコントリビューションは、シミュレーション環境を現実世界に近づける自動リアルタイムチューニングモジュールです。
本研究は,3つのヒューマノイド・デキスタラス・オペレーティング・タスクにおいて有望な結果を示し,それぞれのテクニックについてアブレーション研究を行った。
論文 参考訳(メタデータ) (2025-02-27T18:59:52Z) - Integrating DeepRL with Robust Low-Level Control in Robotic Manipulators for Non-Repetitive Reaching Tasks [0.24578723416255746]
ロボット工学では、現代の戦略は学習に基づくもので、複雑なブラックボックスの性質と解釈可能性の欠如が特徴である。
本稿では, 深部強化学習(DRL)に基づく衝突のない軌道プランナと, 自動調整型低レベル制御戦略を統合することを提案する。
論文 参考訳(メタデータ) (2024-02-04T15:54:03Z) - Exploring of Discrete and Continuous Input Control for AI-enhanced
Assistive Robotic Arms [5.371337604556312]
協調ロボットは、オブジェクトの把握や操作といったタスクのために、複数の自由度(DoF)を管理する必要がある。
本研究は,3種類の入力デバイスを,支援ロボットのための確立されたXRフレームワークに統合することによって探索する。
論文 参考訳(メタデータ) (2024-01-13T16:57:40Z) - Latent Exploration for Reinforcement Learning [87.42776741119653]
強化学習では、エージェントは環境を探索し、相互作用することでポリシーを学ぶ。
LATent TIme-Correlated Exploration (Lattice)を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:40:43Z) - Bridging Active Exploration and Uncertainty-Aware Deployment Using
Probabilistic Ensemble Neural Network Dynamics [11.946807588018595]
本稿では,活発な探索と不確実性を考慮した展開を橋渡しするモデルベース強化学習フレームワークを提案する。
探索と展開の対立する2つのタスクは、最先端のサンプリングベースのMPCによって最適化されている。
自動運転車と車輪付きロボットの両方で実験を行い、探索と展開の両方に有望な結果を示します。
論文 参考訳(メタデータ) (2023-05-20T17:20:12Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。