論文の概要: Fast Concept Mapping: The Emergence of Human Abilities in Artificial
Neural Networks when Learning Embodied and Self-Supervised
- arxiv url: http://arxiv.org/abs/2102.02153v1
- Date: Wed, 3 Feb 2021 17:19:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 01:58:15.376015
- Title: Fast Concept Mapping: The Emergence of Human Abilities in Artificial
Neural Networks when Learning Embodied and Self-Supervised
- Title(参考訳): 高速概念マッピング: 身体的・自己監督的学習におけるニューラルネットワークの人間の能力の出現
- Authors: Viviane Clay, Peter K\"onig, Gordon Pipa, Kai-Uwe K\"uhnberger
- Abstract要約: 本稿では,人工エージェントが自己教師による探索を通じて,まず模擬世界で学習する仕組みを提案する。
我々は、ニューロンの相関した発火パターンを用いて意味概念を定義し、検出する高速概念マッピングと呼ばれる手法を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most artificial neural networks used for object detection and recognition are
trained in a fully supervised setup. This is not only very resource consuming
as it requires large data sets of labeled examples but also very different from
how humans learn. We introduce a setup in which an artificial agent first
learns in a simulated world through self-supervised exploration. Following
this, the representations learned through interaction with the world can be
used to associate semantic concepts such as different types of doors. To do
this, we use a method we call fast concept mapping which uses correlated firing
patterns of neurons to define and detect semantic concepts. This association
works instantaneous with very few labeled examples, similar to what we observe
in humans in a phenomenon called fast mapping. Strikingly, this method already
identifies objects with as little as one labeled example which highlights the
quality of the encoding learned self-supervised through embodiment using
curiosity-driven exploration. It therefor presents a feasible strategy for
learning concepts without much supervision and shows that through pure
interaction with the world meaningful representations of an environment can be
learned.
- Abstract(参考訳): オブジェクト検出と認識に使用されるほとんどの人工ニューラルネットワークは、完全な教師付きセットアップでトレーニングされる。
これは、ラベル付きサンプルの大きなデータセットを必要とするため、非常にリソースを消費するだけでなく、人間の学習方法と非常に異なる。
人工エージェントが自己監督による探索を通じて、シミュレーションされた世界で最初に学習するセットアップを紹介します。
この後、世界との対話を通じて学んだ表現は、様々な種類のドアのような意味概念を関連付けるのに利用できる。
そこで我々は,ニューロンの相関的な発火パターンを用いて意味概念を定義し,検出する高速概念マッピングと呼ぶ手法を提案する。
この協会は、人間がファストマッピングと呼ばれる現象で観察したものと同様、ラベル付き例がほとんどなく、瞬時に機能する。
驚くべきことに、この手法はすでに、キュリオシティ駆動探索による具体化によって学習された自己教師付きエンコーディングの品質を強調する、ラベル付きサンプルを1つしか持たないオブジェクトを識別している。
そこでは, 概念の学習をあまり監督せずに実現可能な戦略を示し, 世界の意味のある環境表現と純粋に相互作用することで, 学習できることを示す。
関連論文リスト
- Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Navigating to Objects in the Real World [76.1517654037993]
本稿では,古典的,モジュール的,エンド・ツー・エンドの学習手法と比較した,意味的視覚ナビゲーション手法に関する大規模な実証的研究について述べる。
モジュラー学習は実世界ではうまく機能し、90%の成功率に達しています。
対照的に、エンド・ツー・エンドの学習は、シミュレーションと現実の間の画像領域の差が大きいため、77%のシミュレーションから23%の実際の成功率へと低下する。
論文 参考訳(メタデータ) (2022-12-02T01:10:47Z) - Multi-Object Navigation with dynamically learned neural implicit
representations [10.182418917501064]
本稿では,各エピソードにおいて動的に学習される2つのニューラル暗示表現を用いてニューラルネットワークを構築することを提案する。
マルチオブジェクトナビゲーションにおけるエージェントの評価を行い、暗黙的表現をメモリソースとして使用する場合の影響を高く示す。
論文 参考訳(メタデータ) (2022-10-11T04:06:34Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - SegDiscover: Visual Concept Discovery via Unsupervised Semantic
Segmentation [29.809900593362844]
SegDiscoverは、監視なしで複雑なシーンを持つデータセットから意味論的に意味のある視覚概念を発見する新しいフレームワークである。
提案手法は, 生画像から概念プリミティブを生成し, 自己教師付き事前学習エンコーダの潜在空間をクラスタリングし, ニューラルネットワークのスムーズ化により概念の洗練を図る。
論文 参考訳(メタデータ) (2022-04-22T20:44:42Z) - HAKE: A Knowledge Engine Foundation for Human Activity Understanding [65.24064718649046]
人間の活動理解は人工知能に広く興味を持ち、医療や行動分析といった多様な応用にまたがっている。
本稿では,この課題を2段階にまとめた新しいパラダイムを提案する。まず,原子活動プリミティブを対象とする中間空間に画素をマッピングし,解釈可能な論理規則で検出されたプリミティブをプログラムして意味論を推論する。
我々のフレームワークであるHAKE(Human Activity Knowledge Engine)は、挑戦的なベンチマークよりも優れた一般化能力と性能を示す。
論文 参考訳(メタデータ) (2022-02-14T16:38:31Z) - Learning from One and Only One Shot [15.835306446986856]
人間はごく少数の例から、類似したタスクの事前訓練から一般化することができる。
ナチビズムと人工知能に動機づけられた私たちは、抽象的な視覚タスクにおいて、人間の生まれつきの先駆者をモデル化する。
1クラスにつき1ドル~10ドル程度のサンプルしか持たず、事前訓練なしで人間レベルの認識を実現しています。
論文 参考訳(メタデータ) (2022-01-14T08:11:21Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Grounded Language Learning Fast and Slow [23.254765095715054]
本研究では,従来の強化学習アルゴリズムを用いて訓練すると,実施エージェントが類似したワンショット単語学習を行うことができることを示す。
特定の訓練条件下では、エージェントのワンショットワードオブジェクト結合は、同じShapeNetカテゴリ内の新しい例に一般化される。
さらに、二重符号化メモリを本質的なモチベーションの信号として利用し、エージェントが後続の命令を実行するのに有用なオブジェクトの名前を検索するように促す方法を示す。
論文 参考訳(メタデータ) (2020-09-03T14:52:03Z) - Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network [1.52292571922932]
我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
論文 参考訳(メタデータ) (2020-02-20T19:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。