論文の概要: ChildBot: Multi-Robot Perception and Interaction with Children
- arxiv url: http://arxiv.org/abs/2008.12818v1
- Date: Fri, 28 Aug 2020 19:07:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 02:05:58.336796
- Title: ChildBot: Multi-Robot Perception and Interaction with Children
- Title(参考訳): ChildBot: マルチロボットの知覚と子どもとのインタラクション
- Authors: Niki Efthymiou, Panagiotis P. Filntisis, Petros Koutras, Antigoni
Tsiami, Jack Hadfield, Gerasimos Potamianos, Petros Maragos
- Abstract要約: 本稿では,幅広い教育・娯楽業務に参加・遂行できる統合型ロボットシステムについて述べる。
ChildBotはマルチモーダル認識モジュールと、インタラクション環境を監視する複数のロボットエージェントを備えている。
- 参考スコア(独自算出の注目度): 43.08980479118157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present an integrated robotic system capable of
participating in and performing a wide range of educational and entertainment
tasks, in collaboration with one or more children. The system, called ChildBot,
features multimodal perception modules and multiple robotic agents that monitor
the interaction environment, and can robustly coordinate complex Child-Robot
Interaction use-cases. In order to validate the effectiveness of the system and
its integrated modules, we have conducted multiple experiments with a total of
52 children. Our results show improved perception capabilities in comparison to
our earlier works that ChildBot was based on. In addition, we have conducted a
preliminary user experience study, employing some educational/entertainment
tasks, that yields encouraging results regarding the technical validity of our
system and initial insights on the user experience with it.
- Abstract(参考訳): 本稿では,1人以上の子どもと共同で,幅広い教育・娯楽業務に参加・遂行できる統合型ロボットシステムを提案する。
ChildBotと呼ばれるこのシステムは、マルチモーダル認識モジュールと、対話環境を監視する複数のロボットエージェントを備えており、複雑なChild-Robotインタラクションのユースケースを堅牢に調整することができる。
システムとその統合モジュールの有効性を検証するために, 合計52名の子どもを用いて複数の実験を行った。
以上の結果から, childbotがベースであった先行研究と比較して,知覚能力が向上した。
また,いくつかの教育・エンタテインメントタスクを取り入れた予備的なユーザエクスペリエンススタディを実施し,システムの技術的妥当性とユーザエクスペリエンスに関する最初の洞察を奨励する結果を得た。
関連論文リスト
- Vocal Sandbox: Continual Learning and Adaptation for Situated Human-Robot Collaboration [64.6107798750142]
Vocal Sandboxは、位置のある環境でシームレスな人間とロボットのコラボレーションを可能にするフレームワークである。
我々は,ロボットの能力に対する理解と協調をリアルタイムで構築できる軽量で解釈可能な学習アルゴリズムを設計する。
我々はVocal Sandboxを,コラボレーションギフトバッグアセンブリとLEGOストップモーションアニメーションの2つの設定で評価した。
論文 参考訳(メタデータ) (2024-11-04T20:44:40Z) - Coherence-Driven Multimodal Safety Dialogue with Active Learning for Embodied Agents [23.960719833886984]
M-CoDAL(M-CoDAL)は、安全クリティカルな状況下でのコミュニケーションをよりよく理解するために、実施エージェント向けに設計されたマルチモーダル対話システムである。
提案手法は,2K Reddit画像から抽出した1Kの安全違反を含む,新たに作成されたマルチモーダルデータセットを用いて評価する。
このデータセットで得られた結果は、我々のアプローチが会話の安全性だけでなく、安全状況、ユーザーの感情、および会話の安全性の解決を改善することを実証している。
論文 参考訳(メタデータ) (2024-10-18T03:26:06Z) - PIMbot: Policy and Incentive Manipulation for Multi-Robot Reinforcement
Learning in Social Dilemmas [4.566617428324801]
本稿では,マルチロボットコラボレーションにおける報酬関数を操作するための新しいアプローチ,すなわちPIMbotを提案する。
提案するPIMbot機構を利用することで,ロボットが社会的ジレンマ環境を効果的に操作することができる。
我々の研究は、ロボット間通信をどのように操作するかについての洞察を与え、様々なロボットアプリケーションに影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-29T09:34:45Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - StoryBuddy: A Human-AI Collaborative Chatbot for Parent-Child
Interactive Storytelling with Flexible Parental Involvement [61.47157418485633]
私たちは、インタラクティブなストーリーテリング体験を作成するためのAI対応システムであるStoryBuddyを開発した。
ユーザスタディでは、StoryBuddyのユーザビリティを検証し、将来の親とAIのコラボレーションシステムの設計上の洞察を提案した。
論文 参考訳(メタデータ) (2022-02-13T04:53:28Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - MT-Opt: Continuous Multi-Task Robotic Reinforcement Learning at Scale [103.7609761511652]
大規模集団ロボット学習システムが,行動のレパートリーを同時に獲得できることを示す。
新しいタスクは、以前学んだタスクから継続的にインスタンス化できる。
我々は,7台のロボットから収集したデータを用いて,実世界のタスク12組でシステムを訓練し,評価する。
論文 参考訳(メタデータ) (2021-04-16T16:38:02Z) - Child-Computer Interaction: Recent Works, New Dataset, and Age Detection [6.061943386819384]
ChildCIは、モバイルデバイスと対話しながら、子どもの認知と神経運動の発達をよりよく理解することを目的としている。
私たちのフレームワークでは、子どもたちはペンスタイラスと指を使ってタブレットデバイスと対話し、異なるレベルの神経運動能力と認知能力を必要とするタスクを実行します。
ChildCIdbは18ヶ月から8歳までの400人以上の子供で構成されており、それゆえ、ピアジェ理論の最初の3つの発達段階を考慮している。
論文 参考訳(メタデータ) (2021-02-02T09:51:58Z) - A robot that counts like a child: a developmental model of counting and
pointing [69.26619423111092]
実物を数えることができる新しい神経ロボティクスモデルを導入する。
このモデルにより,エンボディメントと数値認識の相互作用を調べることができる。
トレーニングされたモデルは、アイテムのセットをカウントすることができ、同時にそれらを指し示します。
論文 参考訳(メタデータ) (2020-08-05T21:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。