論文の概要: Event Neural Networks
- arxiv url: http://arxiv.org/abs/2112.00891v1
- Date: Thu, 2 Dec 2021 00:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-04 06:16:30.719156
- Title: Event Neural Networks
- Title(参考訳): イベントニューラルネットワーク
- Authors: Matthew Dutson, Mohit Gupta
- Abstract要約: イベントニューラルネットワーク(EvNets)は、繰り返しを利用して、ビデオ推論タスクの大幅な削減を実現する。
従来のニューラルネットを仮想的にEvNetに変換することは可能であることを示す。
本研究では,高レベルかつ低レベルの視覚処理において,最先端のニューラルネットワークにおける本手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 13.207573300016277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video data is often repetitive; for example, the content of adjacent frames
is usually strongly correlated. Such repetition occurs at multiple levels of
complexity, from low-level pixel values to textures and high-level semantics.
We propose Event Neural Networks (EvNets), a novel class of networks that
leverage this repetition to achieve considerable computation savings for video
inference tasks. A defining characteristic of EvNets is that each neuron has
state variables that provide it with long-term memory, which allows low-cost
inference even in the presence of significant camera motion. We show that it is
possible to transform virtually any conventional neural into an EvNet. We
demonstrate the effectiveness of our method on several state-of-the-art neural
networks for both high- and low-level visual processing, including pose
recognition, object detection, optical flow, and image enhancement. We observe
up to an order-of-magnitude reduction in computational costs (2-20x) as
compared to conventional networks, with minimal reductions in model accuracy.
- Abstract(参考訳): 例えば、隣接するフレームの内容は通常強く相関している。
このような繰り返しは、低レベルのピクセル値からテクスチャや高レベルのセマンティクスまで、様々なレベルの複雑さで起こる。
我々は,この繰り返しを利用してビデオ推論タスクの大幅な計算節約を実現する,新しいタイプのネットワークであるイベントニューラルネットワーク(evnets)を提案する。
EvNetsの定義上の特徴は、各ニューロンが長期記憶を提供する状態変数を持ち、カメラの動きが著しい場合でも低コストな推論を可能にすることである。
従来のニューラルネットワークをEvNetに変換することは事実上可能であることを示す。
本手法は,ポーズ認識,物体検出,光フロー,画像強調など,高レベルおよび低レベルの視覚処理における最先端ニューラルネットワークの有効性を示す。
従来のネットワークと比較して計算コスト(2~20倍)の桁違いな減少を観測し,モデルの精度を最小に抑えた。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Online Hybrid Lightweight Representations Learning: Its Application to
Visual Tracking [42.49852446519412]
本稿では,ストリーミングデータのための新しいハイブリッド表現学習フレームワークを提案する。
ビデオ内の画像フレームは、2つの異なるディープニューラルネットワークのアンサンブルによってモデル化される。
ハイブリッド表現手法をオンライン視覚追跡タスクに組み込む。
論文 参考訳(メタデータ) (2022-05-23T10:31:14Z) - Stochastic resonance neurons in artificial neural networks [0.0]
アーキテクチャの固有部分として共鳴を用いた新しいタイプのニューラルネットワークを提案する。
このようなニューラルネットワークは、ノイズの影響に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2022-05-06T18:42:36Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Binary Neural Networks for Memory-Efficient and Effective Visual Place
Recognition in Changing Environments [24.674034243725455]
視覚的場所認識(VPR)は、視覚データを用いて、ある場所が訪れたかどうかを判断するロボットの能力である。
CNNベースのアプローチは、小さなロボットやドローンのようなリソース制約のあるプラットフォームには適さない。
本稿では,メモリ要求と計算労力を大幅に削減する,超コンパクトモデルの新たなクラスを提案する。
論文 参考訳(メタデータ) (2020-10-01T22:59:34Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - A Light-Weighted Convolutional Neural Network for Bitemporal SAR Image
Change Detection [40.58864817923371]
計算と空間の複雑さを低減するために,軽量なニューラルネットワークを提案する。
提案するネットワークでは、通常の畳み込み層を、入力と出力の間に同じ数のチャネルを保持するボトルネック層に置き換える。
両時間SAR画像の4つのセット上で、重み付けされたニューラルネットワークを検証する。
論文 参考訳(メタデータ) (2020-05-29T04:01:32Z) - Mixed-Precision Quantized Neural Network with Progressively Decreasing
Bitwidth For Image Classification and Object Detection [21.48875255723581]
ビット幅が徐々に増大する混合精度量子化ニューラルネットワークを提案し,精度と圧縮のトレードオフを改善する。
典型的なネットワークアーキテクチャとベンチマークデータセットの実験は、提案手法がより良い結果または同等の結果が得られることを示した。
論文 参考訳(メタデータ) (2019-12-29T14:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。