論文の概要: Unsupervised Spiking Instance Segmentation on Event Data using STDP
- arxiv url: http://arxiv.org/abs/2111.05283v1
- Date: Tue, 9 Nov 2021 17:26:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 17:11:17.940635
- Title: Unsupervised Spiking Instance Segmentation on Event Data using STDP
- Title(参考訳): STDPを用いたイベントデータにおける教師なしスパイキングインスタンスセグメンテーション
- Authors: Paul Kirkland, Davide L. Manna, Alex Vincente-Sola and Gaetano Di
Caterina
- Abstract要約: 本稿では,スパイク時間依存塑性トレーニングされたスパイク畳み込みニューラルネットワークの重みだけでインスタンスセグメンテーションを行う新しい手法を提案する。
顔検出のための単一クラスの教師なしネットワークを,多人数の顔認識とインスタンスセグメンテーションネットワークに変換することに成功して,新機能を強調した。
- 参考スコア(独自算出の注目度): 0.5512295869673147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNN) and the field of Neuromorphic Engineering has
brought about a paradigm shift in how to approach Machine Learning (ML) and
Computer Vision (CV) problem. This paradigm shift comes from the adaption of
event-based sensing and processing. An event-based vision sensor allows for
sparse and asynchronous events to be produced that are dynamically related to
the scene. Allowing not only the spatial information but a high-fidelity of
temporal information to be captured. Meanwhile avoiding the extra overhead and
redundancy of conventional high frame rate approaches. However, with this
change in paradigm, many techniques from traditional CV and ML are not
applicable to these event-based spatial-temporal visual streams. As such a
limited number of recognition, detection and segmentation approaches exist. In
this paper, we present a novel approach that can perform instance segmentation
using just the weights of a Spike Time Dependent Plasticity trained Spiking
Convolutional Neural Network that was trained for object recognition. This
exploits the spatial and temporal aspects of the network's internal feature
representations adding this new discriminative capability. We highlight the new
capability by successfully transforming a single class unsupervised network for
face detection into a multi-person face recognition and instance segmentation
network.
- Abstract(参考訳): ニューラルネットワークのスパイキング(SNN)とニューロモーフィックエンジニアリングの分野は、機械学習(ML)とコンピュータビジョン(CV)の問題へのアプローチにパラダイムシフトをもたらした。
このパラダイムシフトは、イベントベースのセンシングと処理の適応に由来する。
イベントベースの視覚センサは、シーンに動的に関連付けられたスパースおよび非同期イベントを生成することができる。
空間情報だけでなく、捕捉すべき時間情報の高忠実性も付与する。
一方、従来の高フレームレートアプローチの余分なオーバーヘッドと冗長性を避ける。
しかし、このパラダイムの変化により、従来のCVとMLの多くの技術は、これらの事象に基づく時空間視覚ストリームには適用できない。
このような限られた数の認識、検出、分割のアプローチが存在する。
本稿では,物体認識のために訓練されたスパイク時間依存塑性トレーニングスパイキング畳み込みニューラルネットワークの重みだけを用いて,インスタンスセグメンテーションを行う新しい手法を提案する。
これは、ネットワークの内部特徴表現の空間的および時間的側面を利用して、この新しい識別能力を追加する。
顔検出のための単一クラス無教師ネットワークを,多人数の顔認識とインスタンスセグメンテーションネットワークに変換することで,その新機能を強調した。
関連論文リスト
- EvSegSNN: Neuromorphic Semantic Segmentation for Event Data [0.6138671548064356]
EvSegSNN は、Parametric Leaky Integrate と Fire のニューロンに依存した、生物学的に検証可能なエンコーダ-デコーダU字型アーキテクチャである。
本稿では,スパイキングニューラルネットワークとイベントカメラを組み合わせることによって,エンド・ツー・エンドのバイオインスパイアされたセマンティックセマンティックセマンティクス手法を提案する。
DDD17で実施された実験は、EvSegSNNがMIoUの観点から最も近い最先端モデルを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-20T10:36:24Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Improving Video Instance Segmentation by Light-weight Temporal
Uncertainty Estimates [11.580916951856256]
本稿では,インスタンスセグメンテーションネットワークの不確かさをモデル化するための時間動的手法を提案する。
本稿では,偽陽性の検出と予測品質の推定に本手法を適用した。
提案手法は、容易に訓練されたニューラルネットワークとビデオシーケンス入力のみを必要とする。
論文 参考訳(メタデータ) (2020-12-14T13:39:05Z) - Rotation-Invariant Gait Identification with Quaternion Convolutional
Neural Networks [7.638280076041963]
本稿では,ネットワークアーキテクチャであるQuaternion CNNを紹介する。
我々は,このネットワークが,マルチユーザ回転不変歩行分類設定において,従来のCNNよりも著しく優れていることを実証的に示す。
論文 参考訳(メタデータ) (2020-08-04T23:22:12Z) - Multivariate Time Series Classification Using Spiking Neural Networks [7.273181759304122]
スパイクニューラルネットワークは低消費電力を可能にするため注目されている。
本稿では,時系列をスパース時空間スパイクパターンに変換する符号化方式を提案する。
空間時間パターンを分類する学習アルゴリズムも提案する。
論文 参考訳(メタデータ) (2020-07-07T15:24:01Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Instance Explainable Temporal Network For Multivariate Timeseries [0.0]
本稿では,推論のインスタンスごとの分類決定において重要なチャネルを識別する新しいネットワーク(IETNet)を提案する。
IETNetは、時間的特徴抽出、変数選択、共同変数の相互作用を単一の学習フレームワークに組み合わせたエンドツーエンドネットワークである。
論文 参考訳(メタデータ) (2020-05-26T20:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。