論文の概要: Semantic Segmentation using Neural Ordinary Differential Equations
- arxiv url: http://arxiv.org/abs/2209.08667v1
- Date: Sun, 18 Sep 2022 22:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:21:37.645556
- Title: Semantic Segmentation using Neural Ordinary Differential Equations
- Title(参考訳): 神経常微分方程式を用いた意味セグメンテーション
- Authors: Seyedalireza Khoshsirat, Chandra Kambhamettu
- Abstract要約: 残留ネットワークでは、隠蔽層の離散列を持つ代わりに、隠蔽状態の連続力学の微分をODEでパラメータ化することができる。
われわれのニューラルODEは、トレーニング用メモリの57%、テスト用メモリの42%、パラメータの68%を減らし、最先端の結果を達成することができることを示した。
- 参考スコア(独自算出の注目度): 3.7588109000722727
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The idea of neural Ordinary Differential Equations (ODE) is to approximate
the derivative of a function (data model) instead of the function itself. In
residual networks, instead of having a discrete sequence of hidden layers, the
derivative of the continuous dynamics of hidden state can be parameterized by
an ODE. It has been shown that this type of neural network is able to produce
the same results as an equivalent residual network for image classification. In
this paper, we design a novel neural ODE for the semantic segmentation task. We
start by a baseline network that consists of residual modules, then we use the
modules to build our neural ODE network. We show that our neural ODE is able to
achieve the state-of-the-art results using 57% less memory for training, 42%
less memory for testing, and 68% less number of parameters. We evaluate our
model on the Cityscapes, CamVid, LIP, and PASCAL-Context datasets.
- Abstract(参考訳): ニューラル正規微分方程式(ODE)の考え方は、関数自体ではなく関数(データモデル)の微分を近似することである。
残差ネットワークでは、隠れたレイヤの離散的なシーケンスを持つ代わりに、隠れた状態の連続的なダイナミクスの導出はodeによってパラメータ化することができる。
このタイプのニューラルネットワークは、画像分類のための等価な残差ネットワークと同じ結果を生成することができることが示されている。
本稿では,セマンティックセグメンテーションタスクのための新しいニューラルODEを設計する。
まず、残余モジュールで構成されるベースラインネットワークから始め、その後、モジュールを使用してニューラルODEネットワークを構築します。
われわれのニューラルODEは、トレーニング用メモリの57%、テスト用メモリの42%、パラメータの68%を減らし、最先端の結果を達成することができることを示した。
本研究では,Cityscapes,CamVid,LIP,PASCAL-Contextデータセットのモデルを評価する。
関連論文リスト
- Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Neural ODEs with Irregular and Noisy Data [8.349349605334316]
ノイズや不規則なサンプル測定を用いて微分方程式を学習する手法について議論する。
我々の方法論では、ディープニューラルネットワークとニューラル常微分方程式(ODE)アプローチの統合において、大きな革新が見られる。
ベクトル場を記述するモデルを学習するためのフレームワークは,雑音測定において非常に効果的である。
論文 参考訳(メタデータ) (2022-05-19T11:24:41Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Hessian Aware Quantization of Spiking Neural Networks [1.90365714903665]
ニューロモルフィックアーキテクチャは、可変ビット精度と局所ビット精度の大規模並列計算を可能にする。
SNNトレーニングの現在の勾配に基づく方法は、複数の状態変数を持つ複雑なニューロンモデルを使用する。
我々は、勾配に基づくトレーニングと互換性を保ちつつ、状態変数の数を4倍に削減する単純化されたニューロンモデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T05:27:34Z) - Meta-Solver for Neural Ordinary Differential Equations [77.8918415523446]
本研究では,ソルバ空間の変動がニューラルODEの性能を向上する方法について検討する。
解法パラメータ化の正しい選択は, 敵の攻撃に対するロバスト性の観点から, 神経odesモデルに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2021-03-15T17:26:34Z) - Delay Differential Neural Networks [0.2538209532048866]
遅延微分方程式 (DDE) に触発された新しいモデル, 遅延微分ニューラルネットワーク (DDNN) を提案する。
ddnnのトレーニングには,ネットワーク上での勾配計算とバックプロパゲーションを行うためのメモリ効率の良い随伴法を提案する。
Cifar10やCifar100のような合成および実世界の画像分類データセットで行った実験は、提案モデルの有効性を示した。
論文 参考訳(メタデータ) (2020-12-12T12:20:54Z) - System Identification Through Lipschitz Regularized Deep Neural Networks [0.4297070083645048]
ニューラルネットワークを使って、データから支配方程式を学習します。
我々は、観測されたタイムスタンプデータから直接、ODEs $dotx(t) = f(t, x(t))$の右辺を再構築する。
論文 参考訳(メタデータ) (2020-09-07T17:52:51Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。