論文の概要: I can attend a meeting too! Towards a human-like telepresence avatar
robot to attend meeting on your behalf
- arxiv url: http://arxiv.org/abs/2006.15647v1
- Date: Sun, 28 Jun 2020 16:43:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:59:28.008701
- Title: I can attend a meeting too! Towards a human-like telepresence avatar
robot to attend meeting on your behalf
- Title(参考訳): 私も会議に出席できます!
人間のようなテレプレゼンスアバターロボットを目指して
- Authors: Hrishav Bakul Barua, Chayan Sarkar, Achanna Anil Kumar, Arpan Pal,
Balamuralidhar P
- Abstract要約: 遠隔会議に参加することができるテレプレゼンスロボットに焦点をあてる。
より優れた会議体験を実現するため、ロボットは話者をローカライズし、話者を視角の中央に持ってくる必要がある。
本稿では,テレプレゼンス会議シナリオにおけるアテンションシフト方式の検討と実装について述べる。
- 参考スコア(独自算出の注目度): 8.512048419752047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Telepresence robots are used in various forms in various use-cases that helps
to avoid physical human presence at the scene of action. In this work, we focus
on a telepresence robot that can be used to attend a meeting remotely with a
group of people. Unlike a one-to-one meeting, participants in a group meeting
can be located at a different part of the room, especially in an informal
setup. As a result, all of them may not be at the viewing angle of the robot,
a.k.a. the remote participant. In such a case, to provide a better meeting
experience, the robot should localize the speaker and bring the speaker at the
center of the viewing angle. Though sound source localization can easily be
done using a microphone-array, bringing the speaker or set of speakers at the
viewing angle is not a trivial task. First of all, the robot should react only
to a human voice, but not to the random noises. Secondly, if there are multiple
speakers, to whom the robot should face or should it rotate continuously with
every new speaker? Lastly, most robotic platforms are resource-constrained and
to achieve a real-time response, i.e., avoiding network delay, all the
algorithms should be implemented within the robot itself. This article presents
a study and implementation of an attention shifting scheme in a telepresence
meeting scenario which best suits the needs and expectations of the collocated
and remote attendees. We define a policy to decide when a robot should rotate
and how much based on real-time speaker localization. Using user satisfaction
study, we show the efficacy and usability of our system in the meeting
scenario. Moreover, our system can be easily adapted to other scenarios where
multiple people are located.
- Abstract(参考訳): テレプレゼンスロボットは、アクションシーンにおける物理的な人間の存在を避けるために様々なユースケースで様々な形で使用される。
本研究では,テレプレゼンスロボットに焦点をあて,遠隔会議に参加することを可能にする。
1対1のミーティングとは異なり、グループミーティングの参加者は部屋の別の部分、特に非公式な設定で配置することができる。
結果として、ロボットの視角、つまりリモートの参加者には、それらすべてが当てはまらないかもしれない。
この場合、より良いミーティング体験を提供するために、ロボットはスピーカーをローカライズし、スピーカーを視野角の中央に持ってくる必要がある。
音源定位はマイクロホンアレイで容易に行うことができるが、スピーカーやスピーカーのセットを視角に持っていくことは簡単な作業ではない。
まず第一に、ロボットは人間の声にのみ反応するが、ランダムな雑音には反応しない。
第二に、複数のスピーカーがある場合、ロボットが誰と向き合うべきか、あるいは、新しいスピーカーで常に回転すべきか?
最後に、ほとんどのロボットプラットフォームはリソースに制約があり、リアルタイムの応答、すなわちネットワーク遅延を避けるために、ロボット自体にすべてのアルゴリズムを実装する必要がある。
本稿では,遠隔地参加者のニーズと期待に最も適合するテレプレゼンスミーティングシナリオにおける注意シフト方式の研究と実装について述べる。
ロボットがいつ回転すべきか, どのくらいをリアルタイム話者定位に基づいて決定する政策を定義する。
ユーザ満足度調査を用いて,ミーティングシナリオにおいて,システムの有効性とユーザビリティを示す。
さらに,複数の人物が位置する他のシナリオにも容易に適応できる。
関連論文リスト
- Imitation of human motion achieves natural head movements for humanoid robots in an active-speaker detection task [2.8220015774219567]
頭の動きは社会的人間と人間の相互作用に不可欠である。
そこで本研究では,直型ヒューマノイドロボットの頭部運動生成に生成型AIパイプラインを用いた。
その結果,会話中の話者を積極的に追跡しながら,人間の頭部の動きを自然に模倣することに成功した。
論文 参考訳(メタデータ) (2024-07-16T17:08:40Z) - Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Ain't Misbehavin' -- Using LLMs to Generate Expressive Robot Behavior in
Conversations with the Tabletop Robot Haru [9.2526849536751]
本稿では,大規模言語モデル(LLM)を利用して,表現行動を伴うロボット応答を生成する,完全自動会話システムを提案する。
提案したシステムを用いて,ボランティアが社会ロボットとチャットし,そのフィードバックを分析し,チャットテキストの厳密な誤り解析を行う。
最も否定的なフィードバックは、会話に限られた影響を及ぼす自動音声認識(ASR)エラーによるものだった。
論文 参考訳(メタデータ) (2024-02-18T12:35:52Z) - The Un-Kidnappable Robot: Acoustic Localization of Sneaking People [25.494191141691616]
室内で動く人々の360度RGBデータと組み合わせて、高品質な4チャンネルオーディオのロボットデータセットを収集する。
音声のみを使用して、近くに動く人物と位置を予測できるモデルを訓練する。
本手法をロボットに実装することにより,受動的音声センサのみを用いて,一人の人物が静かに動くことを追跡できる。
論文 参考訳(メタデータ) (2023-10-05T17:59:55Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - WALL-E: Embodied Robotic WAiter Load Lifting with Large Language Model [92.90127398282209]
本稿では,最新のLarge Language Models(LLM)と既存のビジュアルグラウンドとロボットグルーピングシステムを統合する可能性について検討する。
本稿では,この統合の例としてWALL-E (Embodied Robotic WAiter load lifting with Large Language model)を紹介する。
我々は,このLCMを利用したシステムを物理ロボットに展開し,よりユーザフレンドリなインタフェースで指導誘導型把握タスクを実現する。
論文 参考訳(メタデータ) (2023-08-30T11:35:21Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。