論文の概要: Learning to See: You Are What You See
- arxiv url: http://arxiv.org/abs/2003.00902v1
- Date: Fri, 28 Feb 2020 07:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 02:03:02.988053
- Title: Learning to See: You Are What You See
- Title(参考訳): 見ることを学ぶ:あなたが見ているもの
- Authors: Memo Akten, Rebecca Fiebrink, Mick Grierson
- Abstract要約: このアートワークは、人工知能ニューラルネットワークのバイアスを調査し、現実世界の表現を操作するメカニズムを提供する。
これらの表現の探索は、世界の視覚的理解と/または視覚的語彙を開発する過程のメタファーとして機能する。
- 参考スコア(独自算出の注目度): 3.0709727531116617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The authors present a visual instrument developed as part of the creation of
the artwork Learning to See. The artwork explores bias in artificial neural
networks and provides mechanisms for the manipulation of specifically trained
for real-world representations. The exploration of these representations acts
as a metaphor for the process of developing a visual understanding and/or
visual vocabulary of the world. These representations can be explored and
manipulated in real time, and have been produced in such a way so as to reflect
specific creative perspectives that call into question the relationship between
how both artificial neural networks and humans may construct meaning.
- Abstract(参考訳): 著者らは、見るために学習するアートワークの創造の一部として開発されたビジュアルインスツルメンツを提示する。
このアートワークは、ニューラルネットワークのバイアスを調査し、現実世界の表現のために特別に訓練された操作のためのメカニズムを提供する。
これらの表現の探索は、世界の視覚的理解と/または視覚的語彙を開発する過程のメタファーとして機能する。
これらの表現はリアルタイムで探索し、操作することができ、人工知能と人間の両方が意味をどう構築するかという疑問を呼び起こす特定の創造的な視点を反映するように作られてきた。
関連論文リスト
- Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - ImaginaryNet: Learning Object Detectors without Real Images and
Annotations [66.30908705345973]
本稿では,事前学習された言語モデルとテキスト・ツー・イメージモデルを組み合わせた画像合成フレームワークを提案する。
合成画像とクラスラベルを使用することで、弱い教師付きオブジェクト検出を利用してImaginary-Supervised Object Detectionを実現できる。
実験により、ImaginaryNetは、実際のデータに基づいてトレーニングされた同じバックボーンの弱い監督を受けたものと比較して、ISODで約70%の性能が得られることが示された。
論文 参考訳(メタデータ) (2022-10-13T10:25:22Z) - Formal Conceptual Views in Neural Networks [0.0]
本稿では,ニューラルネットワークの概念的視点,特に多値・記号的視点の2つの概念を紹介する。
我々は、ImageNetとFruit-360データセットの異なる実験を通して、新しいビューの概念的表現性をテストする。
本研究では,ニューロンからの人間の理解可能なルールの帰納的学習に概念的視点が適用可能であることを実証する。
論文 参考訳(メタデータ) (2022-09-27T16:38:24Z) - Deep Neural Networks for Visual Reasoning [12.411844611718958]
機械は視覚的知覚と言語理解を用いて推論する能力を持つことが不可欠である。
近年のディープラーニングの進歩は、視覚シーンと言語の両方の洗練された表現を別々に構築してきた。
この論文は、推論をサポートするニューラルネットワークによる視覚と言語タスクの重要側面の活用と活用方法の理解を深めている。
論文 参考訳(メタデータ) (2022-09-24T12:11:00Z) - Compositional Scene Representation Learning via Reconstruction: A Survey [48.33349317481124]
構成シーン表現学習はそのような能力を実現するタスクである。
ディープニューラルネットワークは表現学習において有利であることが証明されている。
大量のラベルのないデータを使用し、費用がかかるデータアノテーションを避けることができるため、再構築による学習は有利である。
論文 参考訳(メタデータ) (2022-02-15T02:14:05Z) - Constellation: Learning relational abstractions over objects for
compositional imagination [64.99658940906917]
静的な視覚シーンのリレーショナル抽象化を学習するネットワークであるConstellationを紹介する。
この研究は、視覚的関係を明確に表現し、それらを複雑な認知手続きに使用するための第一歩である。
論文 参考訳(メタデータ) (2021-07-23T11:59:40Z) - Visual Probing: Cognitive Framework for Explaining Self-Supervised Image
Representations [12.485001250777248]
近年,画像表現学習のための自己教師付き手法が,完全教師付き競技者に対して,同等以上の結果を提供するようになった。
そこで本研究では,自己教師型モデルを説明するための新しい視覚探索フレームワークを提案する。
自己指導型表現の文脈において,これらのアナログの有効性と適用性を示す。
論文 参考訳(メタデータ) (2021-06-21T12:40:31Z) - Data augmentation and image understanding [2.123756175601459]
論文は、機械学習、認知科学、神経科学の間の有利なシナジーを探求する。
論文は、視覚知覚や生物学的視覚とより整合した学習表現に焦点を当てている。
論文 参考訳(メタデータ) (2020-12-28T11:00:52Z) - VisualEchoes: Spatial Image Representation Learning through Echolocation [97.23789910400387]
いくつかの動物種(コウモリ、イルカ、クジラなど)や視覚障害者さえもエコーロケーションを行う能力を持っている。
エコーロケーションを用いて有用な視覚特徴を学習する対話型表現学習フレームワークを提案する。
我々の研究は、物理的世界との相互作用によって監督される、エンボディエージェントのための表現学習の新しい道を開く。
論文 参考訳(メタデータ) (2020-05-04T16:16:58Z) - Learning Intermediate Features of Object Affordances with a
Convolutional Neural Network [1.52292571922932]
我々は深層畳み込みニューラルネットワーク(CNN)を訓練し、画像から手当を認識し、その基盤となる特徴や手当の寸法を知る。
我々は、この表現分析を、人間がどのように環境を知覚し、どのように相互作用するかを、よりフォーマルに説明するための第一歩であると考えている。
論文 参考訳(メタデータ) (2020-02-20T19:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。