論文の概要: ShelfHelp: Empowering Humans to Perform Vision-Independent Manipulation Tasks with a Socially Assistive Robotic Cane
- arxiv url: http://arxiv.org/abs/2405.20501v1
- Date: Thu, 30 May 2024 21:42:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-03 18:05:15.011669
- Title: ShelfHelp: Empowering Humans to Perform Vision-Independent Manipulation Tasks with a Socially Assistive Robotic Cane
- Title(参考訳): ShelfHelp:人間に視覚に依存しない操作タスクを社会的に補助的なロボット犬で実行させる
- Authors: Shivendra Agrawal, Suresh Nayak, Ashutosh Naik, Bradley Hayes,
- Abstract要約: 私たちは、ShelfHelpと呼ぶ概念実証型社会支援ロボットシステムを紹介します。
ShelfHelpには、新しいビジュアルプロダクトロケータアルゴリズムと、音声操作指導コマンドを自律的に発行する新しいプランナーが含まれている。
そこで本研究では,初級ユーザを対象に,望まれる商品を検索するための効果的な操作指導を行うシステムの成功例を示す。
- 参考スコア(独自算出の注目度): 1.6536887609019442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to shop independently, especially in grocery stores, is important for maintaining a high quality of life. This can be particularly challenging for people with visual impairments (PVI). Stores carry thousands of products, with approximately 30,000 new products introduced each year in the US market alone, presenting a challenge even for modern computer vision solutions. Through this work, we present a proof-of-concept socially assistive robotic system we call ShelfHelp, and propose novel technical solutions for enhancing instrumented canes traditionally meant for navigation tasks with additional capability within the domain of shopping. ShelfHelp includes a novel visual product locator algorithm designed for use in grocery stores and a novel planner that autonomously issues verbal manipulation guidance commands to guide the user during product retrieval. Through a human subjects study, we show the system's success in locating and providing effective manipulation guidance to retrieve desired products with novice users. We compare two autonomous verbal guidance modes achieving comparable performance to a human assistance baseline and present encouraging findings that validate our system's efficiency and effectiveness and through positive subjective metrics including competence, intelligence, and ease of use.
- Abstract(参考訳): 特に食料品店で独立して買い物をする能力は、高品質な生活を維持する上で重要である。
これは視覚障害者(PVI)にとって特に困難である。
ストアには何千もの製品があり、アメリカでは毎年3万もの新製品が発売されている。
この研究を通じて、私たちはShelfHelpと呼ぶ概念実証型社会支援ロボットシステムを提案し、伝統的に、ショッピング領域内で追加機能を備えたナビゲーションタスクを目的とした、計測された杖の強化のための新しい技術ソリューションを提案する。
ShelfHelpには、食料品店での使用用に設計された新しいビジュアル製品ロケータアルゴリズムと、商品検索中にユーザーを誘導する言語操作指導コマンドを自律的に発行する新しいプランナーが含まれている。
人間の被験者による研究を通じて,初級者を対象に,希望する商品を検索するための効果的な操作指導を行うシステムの成功を示す。
本稿では,人間の援助ベースラインに匹敵するパフォーマンスを達成する2つの自律的言語指導モードを比較し,システムの有効性と有効性を検証すること,そして能力,知性,使いやすさなどのポジティブな主観的指標を通じて,その効果を実証する。
関連論文リスト
- Smart Help: Strategic Opponent Modeling for Proactive and Adaptive Robot Assistance in Households [30.33911147366425]
Smart Helpは、多様な障害を持つ人間のエージェントに対して、積極的にかつ適応的なサポートを提供することを目的としている。
本稿では,主エージェントの能力と目標の微妙な理解を提供する,イノベーティブな対戦相手モデリングモジュールを紹介する。
この結果から,AIを組み込んだ支援ロボットが,脆弱なグループの健康向上に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-04-13T13:03:59Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - NOPA: Neurally-guided Online Probabilistic Assistance for Building
Socially Intelligent Home Assistants [79.27554831580309]
われわれは、家庭内の人々を支援するために、社会的にインテリジェントなロボットを構築する方法を研究する。
ロボットは人間の目標を同時に推測しなければならない。
論文 参考訳(メタデータ) (2023-01-12T18:59:34Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - Towards a Multi-purpose Robotic Nursing Assistant [0.0]
多目的知的看護支援ロボットシステム(MINA)は、患者に歩行支援を提供し、使い易く直感的なグラフィカルユーザインタフェース(GUI)で遠隔操作を行う。
本稿では,現在最先端の手法を改良した歩行支援タスクの予備的結果を提示し,遠隔操作のためのGUIについて述べる。
論文 参考訳(メタデータ) (2021-06-07T15:00:12Z) - Non-invasive Cognitive-level Human Interfacing for the Robotic
Restoration of Reaching & Grasping [5.985098076571228]
本稿では,人間の腕と指を動作させるロボットシステムを提案する。
ウェアラブルアイトラッキング、環境の視覚的コンテキスト、人間の行動の構造文法を組み合わせて、認知レベルの支援ロボットセットアップを作成します。
論文 参考訳(メタデータ) (2021-02-25T16:32:04Z) - Customized Handling of Unintended Interface Operation in Assistive
Robots [7.657378889055477]
本研究では,ロボット遠隔操作における人間の意図した動作を理由として,意図しない動作の適切な修正を行う支援システムを提案する。
我々は,ロボット遠隔操作中の制御インタフェースと人間の身体的相互作用をモデル化し,意図的および測定された身体行動を明確に区別する。
論文 参考訳(メタデータ) (2020-07-04T13:23:22Z) - AvE: Assistance via Empowerment [77.08882807208461]
そこで我々は,人間の環境制御能力を高めることで,支援のための新しいパラダイムを提案する。
このタスクに依存しない目的は、個人の自律性と最終的な状態を達成する能力を維持する。
論文 参考訳(メタデータ) (2020-06-26T04:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。