論文の概要: Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition
- arxiv url: http://arxiv.org/abs/2103.09072v1
- Date: Tue, 16 Mar 2021 13:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:34:24.588759
- Title: Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition
- Title(参考訳): 作業記憶を用いたマルチモーダル認知のための認知アーキテクチャ
- Authors: Jonas Gonzalez-Billandon, Giulia Belgiovine, Alessandra Sciutti,
Giulio Sandini, Francesco Rea
- Abstract要約: 人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
- 参考スコア(独自算出の注目度): 54.749127627191655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to recognize human partners is an important social skill to build
personalized and long-term human-robot interactions, especially in scenarios
like education, care-giving, and rehabilitation. Faces and voices constitute
two important sources of information to enable artificial systems to reliably
recognize individuals. Deep learning networks have achieved state-of-the-art
results and demonstrated to be suitable tools to address such a task. However,
when those networks are applied to different and unprecedented scenarios not
included in the training set, they can suffer a drop in performance. For
example, with robotic platforms in ever-changing and realistic environments,
where always new sensory evidence is acquired, the performance of those models
degrades. One solution is to make robots learn from their first-hand sensory
data with self-supervision. This allows coping with the inherent variability of
the data gathered in realistic and interactive contexts. To this aim, we
propose a cognitive architecture integrating low-level perceptual processes
with a spatial working memory mechanism. The architecture autonomously
organizes the robot's sensory experience into a structured dataset suitable for
human recognition. Our results demonstrate the effectiveness of our
architecture and show that it is a promising solution in the quest of making
robots more autonomous in their learning process.
- Abstract(参考訳): 人間のパートナーを認識する能力は、パーソナライズされた長期的な人間とロボットのインタラクションを構築するための重要な社会的スキルである。
顔と声は、人工知能が個人を確実に認識できるように、2つの重要な情報源を構成する。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
しかし、これらのネットワークがトレーニングセットに含まれない異なる、前例のないシナリオに適用されると、パフォーマンスが低下する可能性がある。
例えば、常に変化する現実的な環境におけるロボットプラットフォームでは、常に新しい感覚的証拠が取得されるため、それらのモデルの性能は低下する。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
これにより、現実的でインタラクティブなコンテキストで収集されたデータの固有の可変性に対処することができる。
本研究では,空間的作業記憶機構と低レベルの知覚プロセスを統合する認知的アーキテクチャを提案する。
このアーキテクチャは、ロボットの感覚体験を、人間の認識に適した構造化データセットに自律的に整理する。
本研究は,本アーキテクチャの有効性を実証し,ロボットを学習プロセスにおいてより自律的にすることを目的とした,有望なソリューションであることを示す。
関連論文リスト
- Interactive Continual Learning Architecture for Long-Term
Personalization of Home Service Robots [11.648129262452116]
本研究では,人間とロボットのインタラクションを通じて,家庭環境における意味的知識の連続学習のための対話型連続学習アーキテクチャを開発する。
このアーキテクチャは、人間の新しい知識を効率的かつリアルタイムに学習するための学習と記憶のコア認知原則に基づいている。
論文 参考訳(メタデータ) (2024-03-06T04:55:39Z) - Teaching Unknown Objects by Leveraging Human Gaze and Augmented Reality
in Human-Robot Interaction [3.1473798197405953]
この論文は、人間-ロボットインタラクション(HRI)の文脈で未知の物体を教えることを目的としている。
視線追跡と拡張現実(Augmented Reality)を組み合わせることで、人間の教師がロボットとコミュニケーションできる強力なシナジーが生まれました。
ロボットの物体検出能力は、広範囲なデータセットで訓練された最先端の物体検出器に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-12T11:34:43Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - CASPER: Cognitive Architecture for Social Perception and Engagement in
Robots [0.5918643136095765]
本稿では,他のエージェントの追求目標を予測し,最適な協調行動を計算するために,定性的空間推論を用いた記号的認知アーキテクチャであるCASPERを提案する。
我々は、このアーキテクチャをシミュレーションされたキッチン環境でテストし、収集した結果から、ロボットが進行中の目標を認識し、その達成に向けて適切に協力できることが分かる。
論文 参考訳(メタデータ) (2022-09-01T10:15:03Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Low Dimensional State Representation Learning with Robotics Priors in
Continuous Action Spaces [8.692025477306212]
強化学習アルゴリズムは、エンドツーエンドで複雑なロボティクスタスクを解くことができることが証明されている。
本稿では,ロボットの生の知覚情報から得られる高次元の観察から,低次元状態表現の学習と最適ポリシーの学習を組み合わせた枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-04T15:42:01Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。