論文の概要: Receptive Field Size Optimization with Continuous Time Pooling
- arxiv url: http://arxiv.org/abs/2011.00869v2
- Date: Fri, 6 Nov 2020 21:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 11:04:44.643259
- Title: Receptive Field Size Optimization with Continuous Time Pooling
- Title(参考訳): 連続時間プーリングによる受容的場サイズ最適化
- Authors: D\'ora Babicz, Soma Kont\'ar, M\'ark Pet\H{o}, Andr\'as F\"ul\"op,
Gergely Szab\'o, Andr\'as Horv\'ath
- Abstract要約: 我々は、理論上のプールを連続時間微分方程式で置き換える、最も一般的な手法である最大プーリングの修正版を提示する。
一般に適用されるネットワークアーキテクチャとデータセットを用いて,連続プーリングが精度および計算ニーズに与える影響を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The pooling operation is a cornerstone element of convolutional neural
networks. These elements generate receptive fields for neurons, in which local
perturbations should have minimal effect on the output activations, increasing
robustness and invariance of the network. In this paper we will present an
altered version of the most commonly applied method, maximum pooling, where
pooling in theory is substituted by a continuous time differential equation,
which generates a location sensitive pooling operation, more similar to
biological receptive fields. We will present how this continuous method can be
approximated numerically using discrete operations which fit ideally on a GPU.
In our approach the kernel size is substituted by diffusion strength which is a
continuous valued parameter, this way it can be optimized by gradient descent
algorithms. We will evaluate the effect of continuous pooling on accuracy and
computational need using commonly applied network architectures and datasets.
- Abstract(参考訳): プール操作は畳み込みニューラルネットワークの基盤となる要素である。
これらの要素はニューロンの受容野を生成し、局所摂動は出力活性化に最小限の影響しか与えず、ネットワークの堅牢性と不変性が増大する。
本稿では,生物受容場に類似した位置感応性プール操作を生成する連続時間差分方程式により,理論上のプールを代用する,最も一般的な手法である最大プール方式の修正版を提案する。
本稿では,この連続法をGPUに理想的に適合する離散演算を用いて数値的に近似する方法を提案する。
我々のアプローチでは、カーネルサイズは連続的な値パラメータである拡散強度によって代用され、この方法で勾配降下アルゴリズムによって最適化できる。
一般に適用されるネットワークアーキテクチャとデータセットを用いて,連続プーリングが精度および計算ニーズに与える影響を評価する。
関連論文リスト
- Tensor network renormalization: application to dynamic correlation
functions and non-hermitian systems [0.0]
本稿では,動的相関関数の計算を可能にするLoop-TNRアルゴリズムの実装について述べる。
また,非エルミート系の臨界特性を調べるためにLoop-TNRアルゴリズムが適用可能であることも強調した。
論文 参考訳(メタデータ) (2023-11-30T18:34:32Z) - Randomized Polar Codes for Anytime Distributed Machine Learning [66.46612460837147]
本稿では,低速な計算ノードに対して堅牢で,線形演算の近似計算と精度の両立が可能な分散コンピューティングフレームワークを提案する。
本稿では,復号化のための計算複雑性を低く保ちながら,実数値データを扱うための逐次復号アルゴリズムを提案する。
大規模行列乗算やブラックボックス最適化など,様々な文脈において,このフレームワークの潜在的な応用を実証する。
論文 参考訳(メタデータ) (2023-09-01T18:02:04Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Structured Optimal Variational Inference for Dynamic Latent Space Models [16.531262817315696]
動的ネットワークの潜在空間モデルについて検討し、その目的は、ペアの内積と潜在位置のインターセプトを推定することである。
後部推論と計算スケーラビリティのバランスをとるために、構造的平均場変動推論フレームワークを検討する。
論文 参考訳(メタデータ) (2022-09-29T22:10:42Z) - Scalable Optimal Transport in High Dimensions for Graph Distances,
Embedding Alignment, and More [7.484063729015126]
最適輸送のためのコスト行列の2つの効率的な対数線形時間近似を提案する。
これらの近似は、複雑な高次元空間に対してもよく機能するエントロピー規則化OTに対する一般的な対数線形時間アルゴリズムを可能にする。
グラフ距離回帰のために,グラフニューラルネットワーク(GNN)と拡張シンクホーンを組み合わせたグラフトランスポートネットワーク(GTN)を提案する。
論文 参考訳(メタデータ) (2021-07-14T17:40:08Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Self Normalizing Flows [65.73510214694987]
本稿では,各層における学習された近似逆数により,勾配の高価な項を置き換えることで,フローの正規化を訓練するための柔軟なフレームワークを提案する。
これにより、各レイヤの正確な更新の計算複雑性が$mathcalO(D3)$から$mathcalO(D2)$に削減される。
実験により,これらのモデルは非常に安定であり,正確な勾配値と類似したデータ可能性値に最適化可能であることが示された。
論文 参考訳(メタデータ) (2020-11-14T09:51:51Z) - Relative gradient optimization of the Jacobian term in unsupervised deep
learning [9.385902422987677]
データを正しく記述した表現的確率モデルを学習することは、機械学習におけるユビキタスな問題である。
このタスクには深度モデルが広く使用されているが、その最大可能性に基づくトレーニングでは、ジャコビアンの対数行列式を推定する必要がある。
このようなニューラルネットワークの正確なトレーニングのための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:41:08Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Regularized Pooling [12.387676601792899]
畳み込みニューラルネットワーク(CNN)では、スプーリング操作は次元減少や変形補償といった重要な役割を果たす。
本稿では,隣接するカーネル間で空間的にスムーズなスムーズなプール操作を行うために,正規化プーリングを提案する。
論文 参考訳(メタデータ) (2020-05-06T09:02:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。