論文の概要: Ikshana: A Theory of Human Scene Understanding Mechanism
- arxiv url: http://arxiv.org/abs/2101.10837v1
- Date: Thu, 21 Jan 2021 10:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 07:53:34.711529
- Title: Ikshana: A Theory of Human Scene Understanding Mechanism
- Title(参考訳): イクスハナ:人間の情景理解機構の理論
- Authors: Venkata Satya Sai Ajay Daliparthi
- Abstract要約: 我々は,人間の脳の機能を説明するために,イクシャナ(ikshana)という理論を提案する。
我々はikshananetというアーキテクチャを設計し、cityscapesのピクセルレベルのセマンティクスセグメンテーションベンチマークで評価した。
その結果、イクサナ理論はより少ない訓練データで実行できることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, deep neural networks achieved state-of-the-art performance
on many computer vision tasks. The two most commonly observed drawbacks of
these deep neural networks are: the requirement of a massive amount of labeled
data and a vast number of parameters. In this work, we propose a theory named
Ikshana, to explain the functioning of the human brain, while humans understand
a natural scene/image. We have designed an architecture named IkshanaNet and
evaluated on the Cityscapes pixel-level semantic segmentation benchmark, to
show how to implement our theory in practice. The results showed that the
Ikshana theory could perform with less training data. Also, through some
experiments evaluated on the validation set, we showed that the Ikshana theory
can significantly reduce the number of parameters of the network. In
conclusion, a deep neural network designed by following the Ikshana theory will
learn better vector representations of the image, useful for any computer
vision task.
- Abstract(参考訳): 近年、ディープニューラルネットワークは多くのコンピュータビジョンタスクで最先端のパフォーマンスを達成した。
これらのディープニューラルネットワークの最もよく見られる欠点は、大量のラベル付きデータと膨大な数のパラメータの要求である。
本研究では,人間の脳機能を説明するために,イクサナという理論を提案し,自然のシーンやイメージを理解する。
我々はIkshanaNetというアーキテクチャを設計し、Cityscapesのピクセルレベルのセマンティックセマンティックセグメンテーションベンチマークで評価し、我々の理論を実際にどのように実装するかを示す。
その結果、イクシャナ理論はより少ない訓練データで実行可能であることが判明した。
また、検証セットで評価したいくつかの実験により、Ikshana理論はネットワークのパラメータ数を著しく削減できることを示した。
結論として、イクスハナ理論に従って設計されたディープニューラルネットワークは、任意のコンピュータビジョンタスクに有用な、画像のベクトル表現をより良く学習する。
関連論文リスト
- Brain Decodes Deep Nets [9.302098067235507]
我々は、脳にマッピングすることで、大きな訓練済み視覚モデルの可視化と解析を行うツールを開発した。
私たちのイノベーションは、画像に反応して脳のfMRI測定を予測する脳エンコーディングの驚くべき利用から生まれます。
論文 参考訳(メタデータ) (2023-12-03T04:36:04Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Connecting metrics for shape-texture knowledge in computer vision [1.7785095623975342]
深層ニューラルネットワークは、人間が画像の分類ミスを起こさないような、画像の多くの変化の影響を受けやすいままである。
この異なる振る舞いの一部は、視覚タスクで人間とディープニューラルネットワークが使用する機能の種類によって説明できるかもしれない。
論文 参考訳(メタデータ) (2023-01-25T14:37:42Z) - Formal Conceptual Views in Neural Networks [0.0]
本稿では,ニューラルネットワークの概念的視点,特に多値・記号的視点の2つの概念を紹介する。
我々は、ImageNetとFruit-360データセットの異なる実験を通して、新しいビューの概念的表現性をテストする。
本研究では,ニューロンからの人間の理解可能なルールの帰納的学習に概念的視点が適用可能であることを実証する。
論文 参考訳(メタデータ) (2022-09-27T16:38:24Z) - Robustness of Humans and Machines on Object Recognition with Extreme
Image Transformations [0.0]
物体認識タスクにおいて、画像変換の新たなセットを導入し、人間とネットワークの評価を行う。
人間は高い精度で物体を認識できる一方で、いくつかの共通ネットワークの性能は急速に低下することがわかった。
論文 参考訳(メタデータ) (2022-05-09T17:15:54Z) - FuNNscope: Visual microscope for interactively exploring the loss
landscape of fully connected neural networks [77.34726150561087]
ニューラルネットワークの高次元景観特性を探索する方法を示す。
我々は、小さなニューラルネットワークの観測結果をより複雑なシステムに一般化する。
インタラクティブダッシュボードは、いくつかのアプリケーションネットワークを開放する。
論文 参考訳(メタデータ) (2022-04-09T16:41:53Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - The Representation Theory of Neural Networks [7.724617675868718]
ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
論文 参考訳(メタデータ) (2020-07-23T19:02:14Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。