論文の概要: Extraction Propagation
- arxiv url: http://arxiv.org/abs/2402.15883v3
- Date: Wed, 09 Oct 2024 23:25:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-11 14:28:07.952752
- Title: Extraction Propagation
- Title(参考訳): 抽出伝播
- Authors: Stephen Pasteris, Chris Hicks, Vasilios Mavroudis,
- Abstract要約: 我々は抽出伝搬と呼ばれる新しいニューラルネットワークアーキテクチャを開発した。
抽出伝搬は、互いに相互作用する多数の小さなニューラルネットワークのトレーニングによって機能する。
- 参考スコア(独自算出の注目度): 4.368185344922342
- License:
- Abstract: We consider the problem of learning to map large instances, such as sequences and images, to outputs. Since training one large neural network end to end with backpropagation is plagued by vanishing gradients and degradation, we develop a novel neural network architecture called Extraction propagation, which works by training, in parallel, many small neural networks which interact with one another. We note that the performance of Extraction propagation is only conjectured as we have yet to implement it. We do, however, back the algorithm with some theory. A previous version of this paper was entitled "Fusion encoder networks" and detailed a slightly different architecture.
- Abstract(参考訳): 本稿では,シーケンスや画像などの大規模インスタンスを出力にマッピングする学習の課題について考察する。
バックプロパゲーションによる1つの大きなニューラルネットワークのエンドツーエンドのトレーニングは、勾配と劣化の消滅に悩まされているため、抽出伝搬と呼ばれる新しいニューラルネットワークアーキテクチャを開発する。
抽出伝搬の性能は、まだ実装されていないため、推測されているだけである。
しかし、いくつかの理論でアルゴリズムを復活させています。
この論文の以前のバージョンは「フュージョンエンコーダネットワーク」と題され、若干異なるアーキテクチャを詳述した。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A max-affine spline approximation of neural networks using the Legendre
transform of a convex-concave representation [0.3007949058551534]
本研究では,ニューラルネットワークをスプライン表現に変換する新しいアルゴリズムを提案する。
唯一の制約は、函数が有界で、よく定義された第二微分を持つことである。
また、各レイヤ上で独立してではなく、ネットワーク全体にわたって実行することもできる。
論文 参考訳(メタデータ) (2023-07-16T17:01:20Z) - Self-Expanding Neural Networks [24.812671965904727]
ニューラルネットワークの幅と深さの両方を直感的に拡張する自然な勾配に基づくアプローチを導入する。
我々は、ニューロンが加算されるレート'の上限を証明し、拡張スコアに計算的に安価で低いバウンドを証明した。
分類問題と回帰問題の両方において、完全な接続性と畳み込みを備えた自己拡張ニューラルネットワークの利点について説明する。
論文 参考訳(メタデータ) (2023-07-10T12:49:59Z) - Centered Self-Attention Layers [89.21791761168032]
変圧器の自己保持機構とグラフニューラルネットワークのメッセージ通過機構を繰り返し適用する。
我々は、このアプリケーションが必然的に、より深い層での同様の表現に過剰なスムーシングをもたらすことを示す。
これらの機構の集約演算子に補正項を提示する。
論文 参考訳(メタデータ) (2023-06-02T15:19:08Z) - Convolutional Learning on Multigraphs [153.20329791008095]
我々は、多グラフ上の畳み込み情報処理を開発し、畳み込み多グラフニューラルネットワーク(MGNN)を導入する。
情報拡散の複雑なダイナミクスを多グラフのエッジのクラス間で捉えるために、畳み込み信号処理モデルを定式化する。
我々は,計算複雑性を低減するため,サンプリング手順を含むマルチグラフ学習アーキテクチャを開発した。
導入されたアーキテクチャは、最適な無線リソース割り当てとヘイトスピーチローカライゼーションタスクに適用され、従来のグラフニューラルネットワークよりも優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2022-09-23T00:33:04Z) - Quiver neural networks [5.076419064097734]
ニューラルネットワーク接続アーキテクチャの解析に対する一様理論的アプローチを開発する。
数学におけるquiver表現理論にインスパイアされたこのアプローチは、精巧なデータフローを捉えるためのコンパクトな方法を与える。
論文 参考訳(メタデータ) (2022-07-26T09:42:45Z) - Learning on Arbitrary Graph Topologies via Predictive Coding [38.761663028090204]
任意のグラフトポロジで推論と学習を行うために,予測符号化がどのように使用できるかを示す。
我々は、PCグラフと呼ばれるこの定式化が、同じネットワークで異なるタスクを柔軟に実行するためにどのように使用できるかを実験的に示す。
論文 参考訳(メタデータ) (2022-01-31T12:43:22Z) - Predify: Augmenting deep neural networks with brain-inspired predictive
coding dynamics [0.5284812806199193]
我々は神経科学の一般的な枠組みからインスピレーションを得た:「予測コーディング」
本稿では、この戦略をVGG16とEfficientNetB0という2つの人気ネットワークに実装することで、様々な汚職に対する堅牢性を向上させることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:48:13Z) - Learning compositional functions via multiplicative weight updates [97.9457834009578]
乗算重み更新は構成関数に合わせた降下補題を満たすことを示す。
マダムは、学習率のチューニングなしに、最先端のニューラルネットワークアーキテクチャをトレーニングできることを示す。
論文 参考訳(メタデータ) (2020-06-25T17:05:19Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Geometrically Principled Connections in Graph Neural Networks [66.51286736506658]
我々は、幾何学的深層学習の新興分野におけるイノベーションの原動力は、幾何が依然として主要な推進力であるべきだと論じている。
グラフニューラルネットワークとコンピュータグラフィックスとデータ近似モデルとの関係:放射基底関数(RBF)
完全連結層とグラフ畳み込み演算子を組み合わせた新しいビルディングブロックであるアフィンスキップ接続を導入する。
論文 参考訳(メタデータ) (2020-04-06T13:25:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。