論文の概要: Examining Audio Communication Mechanisms for Supervising Fleets of
Agricultural Robots
- arxiv url: http://arxiv.org/abs/2208.10455v1
- Date: Mon, 22 Aug 2022 17:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:39:30.470273
- Title: Examining Audio Communication Mechanisms for Supervising Fleets of
Agricultural Robots
- Title(参考訳): 農業ロボット群を監督する音声通信機構の検討
- Authors: Abhi Kamboj, Tianchen Ji, Katie Driggs-Campbell
- Abstract要約: 我々は、agbotをフィールドに配置し、ランダムに障害に遭遇し、オペレーターに助けを求めるシミュレーションプラットフォームを開発した。
アグボットがエラーを報告すると、どのロボットが失敗したか、どんな障害が発生したかを伝える様々な音声通信機構がテストされる。
ユーザによる3つの音声通信方式: イヤーコン, 単文コマンド, フル文コミュニケーション。
- 参考スコア(独自算出の注目度): 2.76240219662896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Agriculture is facing a labor crisis, leading to increased interest in fleets
of small, under-canopy robots (agbots) that can perform precise, targeted
actions (e.g., crop scouting, weeding, fertilization), while being supervised
by human operators remotely. However, farmers are not necessarily experts in
robotics technology and will not adopt technologies that add to their workload
or do not provide an immediate payoff. In this work, we explore methods for
communication between a remote human operator and multiple agbots and examine
the impact of audio communication on the operator's preferences and
productivity. We develop a simulation platform where agbots are deployed across
a field, randomly encounter failures, and call for help from the operator. As
the agbots report errors, various audio communication mechanisms are tested to
convey which robot failed and what type of failure occurs. The human is tasked
with verbally diagnosing the failure while completing a secondary task. A user
study was conducted to test three audio communication methods: earcons,
single-phrase commands, and full sentence communication. Each participant
completed a survey to determine their preferences and each method's overall
effectiveness. Our results suggest that the system using single phrases is the
most positively perceived by participants and may allow for the human to
complete the secondary task more efficiently. The code is available at:
https://github.com/akamboj2/Agbot-Sim.
- Abstract(参考訳): 農業は労働危機に直面しており、人間のオペレーターが遠隔で監督しながら、正確に標的とした行動(例えば、作物のスカウト、雑草、受精)を行える小型のキャノピーロボット(agbot)の群れへの関心が高まっている。
しかし、農家は必ずしもロボット技術の専門家ではないため、作業量を増やす技術や即時給付を提供しない技術は採用しない。
本研究では,遠隔操作者と複数のアグボット間の通信方法を検討し,音声通信が操作者の好みや生産性に与える影響を検討する。
我々は、agbotをフィールドに配置し、ランダムに障害に遭遇し、オペレーターに助けを求めるシミュレーションプラットフォームを開発した。
agbotsがエラーを報告すると、様々な音声通信メカニズムがテストされ、どのロボットが失敗したか、どんな種類の障害が起こったかを伝える。
人間は、二次的なタスクを完了しながら、失敗を言葉で診断する。
3つの音声コミュニケーション方法(earcons、single-phrase command、full sentence communication)をテストした。
各参加者はそれぞれの好みと方法全体の有効性を決定する調査を完了した。
以上の結果から,単一フレーズを用いたシステムが最も肯定的に認識され,人間がより効率的に二次タスクを完了できる可能性が示唆された。
コードは、https://github.com/akamboj2/Agbot-Sim.comで入手できる。
関連論文リスト
- Human-Robot Mutual Learning through Affective-Linguistic Interaction and Differential Outcomes Training [Pre-Print] [0.3811184252495269]
本研究では,感情言語コミュニケーションが人間ロボットの文脈における相互学習にどのように影響するかを検証する。
児童介護のダイナミックスからインスピレーションを得て、私たちの人間とロボットのインタラクションのセットアップは、内部的、ホメオスタティックに制御されたニーズのコミュニケーション方法を学ぶための(シミュレートされた)ロボットで構成されています。
論文 参考訳(メタデータ) (2024-07-01T13:35:08Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - LLM Granularity for On-the-Fly Robot Control [3.5015824313818578]
視覚が信頼できない、あるいは利用できない状況では、ロボットを制御するための言語のみに頼ることができるのか?
本研究は,(1)様々な粒度の言語プロンプトに対する補助ロボットの応答を評価し,(2)ロボットのオンザフライ制御の必要性と実現可能性を探る。
論文 参考訳(メタデータ) (2024-06-20T18:17:48Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Learning Language-Conditioned Robot Behavior from Offline Data and
Crowd-Sourced Annotation [80.29069988090912]
本研究では,ロボットインタラクションの大規模なオフラインデータセットから視覚に基づく操作タスクを学習する問題について検討する。
クラウドソースの自然言語ラベルを用いたオフラインロボットデータセットの活用を提案する。
提案手法は目標画像仕様と言語条件付き模倣技術の両方を25%以上上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-02T17:42:13Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。