論文の概要: Understanding the Ability of Deep Neural Networks to Count Connected
Components in Images
- arxiv url: http://arxiv.org/abs/2101.01386v1
- Date: Tue, 5 Jan 2021 07:28:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:47:09.537658
- Title: Understanding the Ability of Deep Neural Networks to Count Connected
Components in Images
- Title(参考訳): 画像中の連結成分をカウントするディープニューラルネットワークの能力の理解
- Authors: Shuyue Guan, Murray Loew
- Abstract要約: 人間は減量によって非常に速く数えられるが、物体の数が増加するにつれて著しく遅くなる。
これまでの研究では、訓練されたディープニューラルネットワーク(DNN)検出器が、オブジェクトの数とともにゆっくりと増加する時間にオブジェクトの数をカウントできることが示されている。
人間と異なり、多人数でも同様に機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can count very fast by subitizing, but slow substantially as the
number of objects increases. Previous studies have shown a trained deep neural
network (DNN) detector can count the number of objects in an amount of time
that increases slowly with the number of objects. Such a phenomenon suggests
the subitizing ability of DNNs, and unlike humans, it works equally well for
large numbers. Many existing studies have successfully applied DNNs to object
counting, but few studies have studied the subitizing ability of DNNs and its
interpretation. In this paper, we found DNNs do not have the ability to
generally count connected components. We provided experiments to support our
conclusions and explanations to understand the results and phenomena of these
experiments. We proposed three ML-learnable characteristics to verify learnable
problems for ML models, such as DNNs, and explain why DNNs work for specific
counting problems but cannot generally count connected components.
- Abstract(参考訳): 人間は減量によって非常に速く数えられるが、物体の数が増加するにつれて著しく遅くなる。
これまでの研究では、訓練されたディープニューラルネットワーク(DNN)検出器が、オブジェクトの数とともにゆっくりと増加する時間にオブジェクトの数をカウントできることが示されている。
このような現象は、DNNの減数化能力を示しているが、人間とは異なり、多人数でも同様に機能する。
既存の多くの研究がオブジェクトカウントにDNNをうまく応用しているが、DNNの減数化能力とその解釈に関する研究は少ない。
本稿では,DNNが一般に接続されたコンポーネントを数える能力を持っていないことを示す。
我々は,これらの実験の結果と現象を理解するために,結論と説明を支援する実験を行った。
DNNのようなMLモデルの学習可能な問題を検証するための3つのML学習可能特性を提案し、DNNが特定のカウント問題に対して機能するが、一般に接続されたコンポーネントをカウントできない理由を説明する。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - On the Computational Complexity and Formal Hierarchy of Second Order
Recurrent Neural Networks [59.85314067235965]
2次次リカレントネットワーク(RNN)の理論基盤を拡大する(2次RNN)
有界時間でチューリング完備な RNN のクラスが存在することを証明している。
また、記憶のない2ドルのRNNは、バニラRNNのような現代のモデルよりも優れており、正規文法の認識において繰り返し単位をゲートしていることを示す。
論文 参考訳(メタデータ) (2023-09-26T06:06:47Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Wearable-based Human Activity Recognition with Spatio-Temporal Spiking
Neural Networks [10.56465459506157]
我々は,人間の活動認識(HAR)課題を解決するために,スパイキングニューラルネットワーク(SNN)を活用している。
SNNは特徴の時間的抽出を可能にし、バイナリスパイクによる低消費電力計算を楽しむ。
我々は3つのHARデータセットをSNNで広範囲に実験し、SNNがANNと同等であり、エネルギー消費を抑えながら精度を向上することを示した。
論文 参考訳(メタデータ) (2022-11-14T23:20:56Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - SyReNN: A Tool for Analyzing Deep Neural Networks [8.55884254206878]
ディープニューラルネットワーク(DNN)は、さまざまな重要なドメインで急速に人気を集めています。
本稿では,そのシンボル表現を計算してDNNの理解と分析を行うSyReNNを紹介する。
論文 参考訳(メタデータ) (2021-01-09T00:27:23Z) - Spiking Neural Networks with Single-Spike Temporal-Coded Neurons for
Network Intrusion Detection [6.980076213134383]
スパイキングニューラルネット(SNN)は、その強い生物楽観性と高いエネルギー効率のために興味深い。
しかし、その性能は従来のディープニューラルネットワーク(DNN)よりもはるかに遅れている。
論文 参考訳(メタデータ) (2020-10-15T14:46:18Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。