論文の概要: Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2002.08975v1
- Date: Thu, 20 Feb 2020 19:04:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 08:11:30.465966
- Title: Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network
- Title(参考訳): 畳み込みニューラルネットワークを用いた物体余裕の中間的特徴の学習
- Authors: Aria Yuan Wang and Michael J. Tarr
- Abstract要約: 我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our ability to interact with the world around us relies on being able to
infer what actions objects afford -- often referred to as affordances. The
neural mechanisms of object-action associations are realized in the visuomotor
pathway where information about both visual properties and actions is
integrated into common representations. However, explicating these mechanisms
is particularly challenging in the case of affordances because there is hardly
any one-to-one mapping between visual features and inferred actions. To better
understand the nature of affordances, we trained a deep convolutional neural
network (CNN) to recognize affordances from images and to learn the underlying
features or the dimensionality of affordances. Such features form an underlying
compositional structure for the general representation of affordances which can
then be tested against human neural data. We view this representational
analysis as the first step towards a more formal account of how humans perceive
and interact with the environment.
- Abstract(参考訳): 私たちの周りの世界と対話する能力は、オブジェクトがどのアクションに余裕があるかを推測できることに依存しています。
視覚特性と行動に関する情報を共通表現に統合する視覚運動経路において、物体-行動関連の神経機構が実現される。
しかし,視覚的特徴と推論された行動との間には1対1のマッピングがほとんどないため,これらのメカニズムを解明するのは難しい。
価格の性質をよりよく理解するために、画像から価格を認識するために深層畳み込みニューラルネットワーク(cnn)を訓練し、その基礎となる特徴や価格の次元を学習した。
このような特徴は、人間の神経データに対してテストできる余裕の一般的な表現の基盤となる構成構造を形成する。
我々は、この表現分析を、人間がどのように環境を知覚し相互作用するかという、より形式的な説明への第一歩と考える。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Binding Dynamics in Rotating Features [72.80071820194273]
本稿では,特徴間のアライメントを明示的に計算し,それに応じて重みを調整する「コサイン結合」機構を提案する。
これにより、自己注意と生物学的神経プロセスに直接接続し、回転する特徴に現れるオブジェクト中心の表現の基本的なダイナミクスに光を当てることができます。
論文 参考訳(メタデータ) (2024-02-08T12:31:08Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity [33.06823702945747]
我々はSwap-VAEと呼ばれる神経活動の不整合表現を学習するための新しい教師なしアプローチを導入する。
このアプローチは、生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせたものです。
我々は、行動に関連付けられた関連する潜在次元に沿って、ニューラルネットワークをアンタングルする表現を構築することが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T16:39:43Z) - Capturing the objects of vision with neural networks [0.0]
人間の視覚知覚はその物理的関節でシーンを彫り、世界をオブジェクトに分解する。
対照的に、視覚物体認識のディープニューラルネットワーク(DNN)モデルは、主に感覚入力と結びついている。
両分野の関連研究をレビューし、これらの分野が相互にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2021-09-07T21:49:53Z) - On the Binding Problem in Artificial Neural Networks [12.04468744445707]
この欠点の根底にある原因は、動的かつ柔軟に情報を結合できないことである。
非構造化感覚入力から有意義な実体を形成するための統一フレームワークを提案する。
我々は,人間レベルの一般化を実現する上で,AIに対する構成的アプローチが基本的重要性であると考えている。
論文 参考訳(メタデータ) (2020-12-09T18:02:49Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Compositional Generalization by Learning Analytical Expressions [87.15737632096378]
メモリ拡張ニューラルモデルは、合成一般化を達成するために解析式に接続される。
良く知られたベンチマークSCANの実験は、我々のモデルが構成的一般化の優れた能力をつかむことを示した。
論文 参考訳(メタデータ) (2020-06-18T15:50:57Z) - Visualizing and Understanding Vision System [0.6510507449705342]
視覚認識再構成ネットワーク (RRN) を用いて, 発達, 認識, 学習, 忘れるメカニズムについて検討する。
数値認識研究では、RRNが様々な視聴条件下でオブジェクト不変性表現を維持できるのを目撃する。
学習・忘れ研究において、本来のシナプス接続のパターン特異性を保ちつつ、全シナプスを低等級に調整することで、新規な構造認識を行う。
論文 参考訳(メタデータ) (2020-06-11T07:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。