論文の概要: A Greedy Algorithm for Building Compact Binary Activated Neural Networks
- arxiv url: http://arxiv.org/abs/2209.03450v1
- Date: Wed, 7 Sep 2022 20:11:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 13:12:10.803711
- Title: A Greedy Algorithm for Building Compact Binary Activated Neural Networks
- Title(参考訳): 小型バイナリ活性化ニューラルネットワーク構築のためのグレディアルゴリズム
- Authors: Benjamin Leblanc and Pascal Germain
- Abstract要約: 回帰タスクの文脈におけるバイナリ活性化ニューラルネットワークについて検討する。
このようなネットワークを構築するための欲求的アルゴリズムを提案する。
提案手法は,コンパクトかつスパースな予測器を提供する。
- 参考スコア(独自算出の注目度): 2.9697051524971743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study binary activated neural networks in the context of regression tasks,
provide guarantees on the expressiveness of these particular networks and
propose a greedy algorithm for building such networks. Aiming for predictors
having small resources needs, the greedy approach does not need to fix in
advance an architecture for the network: this one is built one layer at a time,
one neuron at a time, leading to predictors that aren't needlessly wide and
deep for a given task. Similarly to boosting algorithms, our approach
guarantees a training loss reduction every time a neuron is added to a layer.
This greatly differs from most binary activated neural networks training
schemes that rely on stochastic gradient descent (circumventing the
0-almost-everywhere derivative problem of the binary activation function by
surrogates such as the straight through estimator or continuous binarization).
We show that our method provides compact and sparse predictors while obtaining
similar performances to state-of-the-art methods for training binary activated
networks.
- Abstract(参考訳): 回帰タスクの文脈でバイナリ活性化ニューラルネットワークを研究し、これらの特定のネットワークの表現性を保証し、そのようなネットワークを構築するための欲求的アルゴリズムを提案する。
ネットワークのアーキテクチャを事前に修正する必要はない。これは一度に1つのレイヤを構築し、一度に1つのニューロンを構築し、与えられたタスクに対して不必要に広く、深くない予測者を生み出す。
アルゴリズムの強化と同様に、このアプローチはニューロンが層に追加されるたびにトレーニング損失を減らすことを保証します。
これは、確率勾配勾配に依存するほとんどのバイナリ活性化ニューラルネットワークトレーニングスキーム(ストレートスルー推定器や連続二項化器などによる二項活性化関数の0-almost-everywhere微分問題を回避する)とは大きく異なる。
提案手法は,バイナリアクティベートネットワークをトレーニングするための最先端手法に類似した性能を確保しつつ,コンパクトかつスパースな予測器を提供する。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - A biologically plausible neural network for local supervision in
cortical microcircuits [17.00937011213428]
我々は、明示的なエラーやバックプロパゲーションを避けるニューラルネットワークを訓練するためのアルゴリズムを導出する。
我々のアルゴリズムは、大脳皮質の接続構造や学習規則に顕著な類似性を持つニューラルネットワークにマップする。
論文 参考訳(メタデータ) (2020-11-30T17:35:22Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Separation of Memory and Processing in Dual Recurrent Neural Networks [0.0]
入力に接続する繰り返し層とフィードフォワード層を積み重ねるニューラルネットワークアーキテクチャを探索する。
繰り返し単位の活性化関数にノイズが導入されたとき、これらのニューロンは二項活性化状態に強制され、ネットワークは有限オートマトンのように振る舞う。
論文 参考訳(メタデータ) (2020-05-17T11:38:42Z) - On Tractable Representations of Binary Neural Networks [23.50970665150779]
我々は、二項ニューラルネットワークの決定関数を、順序付き二項決定図(OBDD)や意味決定図(SDD)などの抽出可能な表現にコンパイルすることを検討する。
実験では,SDDとしてニューラルネットワークのコンパクトな表現を得ることが可能であることを示す。
論文 参考訳(メタデータ) (2020-04-05T03:21:26Z) - Exploring the Connection Between Binary and Spiking Neural Networks [1.329054857829016]
両立ニューラルネットワークとスパイクニューラルネットワークの訓練における最近のアルゴリズムの進歩を橋渡しする。
極端量子化システムにおけるスパイキングニューラルネットワークのトレーニングは,大規模データセット上でのほぼ完全な精度向上をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-24T03:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。