論文の概要: A Survey on Dynamic Neural Networks: from Computer Vision to Multi-modal Sensor Fusion
- arxiv url: http://arxiv.org/abs/2501.07451v1
- Date: Mon, 13 Jan 2025 16:24:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 19:20:14.260431
- Title: A Survey on Dynamic Neural Networks: from Computer Vision to Multi-modal Sensor Fusion
- Title(参考訳): 動的ニューラルネットワークに関するサーベイ:コンピュータビジョンからマルチモーダルセンサフュージョンへ
- Authors: Fabio Montello, Ronja Güldenring, Simone Scardapane, Lazaros Nalpantidis,
- Abstract要約: 本稿では,既存の動的ニューラルネットワークの研究をコンピュータビジョンの文脈で合成し,統合する調査を行う。
動的ニューラルネットワークは, 適応性, ノイズ低減, 情報優先化において, センサフュージョンの文脈で特に有用である。
- 参考スコア(独自算出の注目度): 7.2631793071417725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model compression is essential in the deployment of large Computer Vision models on embedded devices. However, static optimization techniques (e.g. pruning, quantization, etc.) neglect the fact that different inputs have different complexities, thus requiring different amount of computations. Dynamic Neural Networks allow to condition the number of computations to the specific input. The current literature on the topic is very extensive and fragmented. We present a comprehensive survey that synthesizes and unifies existing Dynamic Neural Networks research in the context of Computer Vision. Additionally, we provide a logical taxonomy based on which component of the network is adaptive: the output, the computation graph or the input. Furthermore, we argue that Dynamic Neural Networks are particularly beneficial in the context of Sensor Fusion for better adaptivity, noise reduction and information prioritization. We present preliminary works in this direction.
- Abstract(参考訳): モデル圧縮は、大型コンピュータビジョンモデルの組み込みデバイスへの展開に不可欠である。
しかし、静的最適化手法(例えば、プルーニング、量子化など)は、異なる入力が異なる複雑さを持つという事実を無視し、異なる計算量を必要とする。
動的ニューラルネットワークは、特定の入力に計算の数を条件付けることができる。
このトピックに関する現在の文献は非常に広く、断片化されています。
本稿では,コンピュータビジョンの文脈において,既存の動的ニューラルネットワーク研究を合成・統合する包括的調査を行う。
さらに、ネットワークのどのコンポーネントが適応しているか、すなわち、出力、計算グラフ、入力に基づいて論理分類を提供する。
さらに, 動的ニューラルネットワークは, 適応性, 雑音低減, 情報優先化において, センサフュージョンの文脈において特に有益であると主張する。
我々はこの方向で予備研究を行う。
関連論文リスト
- The Promise of Spiking Neural Networks for Ubiquitous Computing: A Survey and New Perspectives [6.0751106418587835]
スパイキングニューラルネットワーク(SNN)は、低消費電力計算を実現するためにスパースでイベント駆動のシグナリングを利用する、バイオインスパイアされたネットワークのクラスとして登場した。
ユニークで有望な機能にもかかわらず、SNNは限定的な注目を集め、ユビキタスコンピューティングコミュニティ内では未探索のままである。
論文 参考訳(メタデータ) (2025-06-02T14:47:48Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Sparsity-Aware Hardware-Software Co-Design of Spiking Neural Networks: An Overview [1.0499611180329804]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークのスパースでイベント駆動的な性質にインスパイアされ、超低消費電力人工知能の可能性を秘めている。
スパースSNNのハードウェア・ソフトウェア共同設計について検討し,スパース表現,ハードウェアアーキテクチャ,トレーニング技術がハードウェア効率に与える影響について検討する。
本研究の目的は,スパースSNNの計算的優位性をフル活用した,組込みニューロモルフィックシステムへの道筋を解明することである。
論文 参考訳(メタデータ) (2024-08-26T17:22:11Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFを導入し、非常に大きなニューラルネットワークによって学習された表現と計算の科学的研究を可能にする。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - An Attempt to Devise a Pairwise Ising-Type Maximum Entropy Model Integrated Cost Function for Optimizing SNN Deployment [0.0]
スパイキングニューラルネットワーク(SNN)デプロイメントプロセスでは、ニューラルネットワークをニューロモルフィックハードウェア内の処理ユニットに分割することが多い。
最適配置方式を見つけることはNPハード問題である。
これらの目的には、ニューロンの活動パターンによって形成されるネットワークダイナミクスを考慮する必要がある。
本手法は,ハードウェアに依存しないネットワークダイナミクスに着目し,特定のハードウェア構成とは独立してモデル化できる。
論文 参考訳(メタデータ) (2024-07-09T16:33:43Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Conditional computation in neural networks: principles and research trends [48.14569369912931]
本稿では,ニューラルネットワークの設計にテクトコンディショナリ計算を適用するという,新たな領域の原理とアイデアを要約する。
特に、入力に条件付きで計算グラフの一部を動的に活性化または非活性化するニューラルネットワークに焦点を当てる。
論文 参考訳(メタデータ) (2024-03-12T11:56:38Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Vanilla Feedforward Neural Networks as a Discretization of Dynamical Systems [9.382423715831687]
本稿では,従来のネットワーク構造に戻り,バニラフィードフォワードネットワークが動的システムの数値的な離散化であることを示す。
我々の結果は、フィードフォワードニューラルネットワークの近似特性を理解するための新しい視点を提供することができる。
論文 参考訳(メタデータ) (2022-09-22T10:32:08Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Deep Neural Networks as Complex Networks [1.704936863091649]
我々は、重み付きグラフとしてディープニューラルネットワーク(DNN)を表現するために複雑ネットワーク理論を用いる。
我々は、DNNを動的システムとして研究するためのメトリクスを導入し、その粒度は、重みから神経細胞を含む層まで様々である。
我々の測定値が低性能ネットワークと高パフォーマンスネットワークを区別していることが示される。
論文 参考訳(メタデータ) (2022-09-12T16:26:04Z) - Physics-informed ConvNet: Learning Physical Field from a Shallow Neural
Network [0.180476943513092]
マルチ物理システムのモデル化と予測は、避けられないデータ不足とノイズのために依然として課題である。
物理インフォームド・コンボリューション・ネットワーク(PICN)と呼ばれる新しいフレームワークは、CNNの観点から推奨されている。
PICNは物理インフォームド機械学習において、代替のニューラルネットワークソルバとなる可能性がある。
論文 参考訳(メタデータ) (2022-01-26T14:35:58Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Integrate-and-Fire Neurons for Low-Powered Pattern Recognition [0.0]
コンデンサの電荷と放電特性を利用した低出力ニューロンモデル「Integrate-and-Fire」を導入する。
並列および直列RC回路を用いて、繰り返し形式で表現できるトレーニング可能なニューロンモデルを開発した。
本論文は,第20回人工知能・ソフトコンピューティングWebシステム国際会議(ICAISC 2021)で発表された研究の全文である。
論文 参考訳(メタデータ) (2021-06-28T12:08:00Z) - On the role of feedback in visual processing: a predictive coding
perspective [0.6193838300896449]
我々は、フィードフォワード視覚処理のモデルとして深層畳み込みネットワーク(CNN)を検討し、予測符号化(PC)ダイナミクスを実装した。
ノイズレベルが増加するにつれて、ネットワークはますますトップダウンの予測に依存している。
さらに,PCダイナミクスを実装するネットワークの精度は,等価なフォワードネットワークに比べて時間経過とともに著しく向上する。
論文 参考訳(メタデータ) (2021-06-08T10:07:23Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。