論文の概要: Deep Ridgelet Transform: Voice with Koopman Operator Proves Universality
of Formal Deep Networks
- arxiv url: http://arxiv.org/abs/2310.03529v2
- Date: Mon, 13 Nov 2023 12:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 20:27:17.634918
- Title: Deep Ridgelet Transform: Voice with Koopman Operator Proves Universality
of Formal Deep Networks
- Title(参考訳): ディープリッジレット変換:koopman演算子による音声による形式的ディープネットワークの普遍性証明
- Authors: Sho Sonoda, Yuka Hashimoto, Isao Ishikawa, Masahiro Ikeda
- Abstract要約: ディープニューラルネットワーク(DNN)内の隠れた層を、データドメイン上のグループアクションで識別する。
グループ動作の線形表現であるクープマン作用素に対して、二重音声変換として形式的なディープネットワークを定式化する。
- 参考スコア(独自算出の注目度): 17.121616759457144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We identify hidden layers inside a deep neural network (DNN) with group
actions on the data domain, and formulate a formal deep network as a dual voice
transform with respect to the Koopman operator, a linear representation of the
group action. Based on the group theoretic arguments, particularly by using
Schur's lemma, we show a simple proof of the universality of DNNs.
- Abstract(参考訳): データドメイン上のグループアクションを持つディープニューラルネットワーク(DNN)内の隠れ層を特定し、グループアクションの線形表現であるクープマン演算子に対する二重音声変換として形式的なディープネットワークを定式化する。
群論的議論、特にシューアの補題を用いて、dnnの普遍性の簡単な証明を示す。
関連論文リスト
- Leveraging KANs For Enhanced Deep Koopman Operator Discovery [0.0]
多層パーセプトロン(MLP)は、非線形力学を線形化するディープ・クープマン作用素の発見に広く利用されている。
Kolmogorov-Arnold Networks (KAN) がより効率的かつ正確な代替手段として出現し、各ネットワークタイプの性能の比較を提案する。
学習速度は31倍、パラメータ効率は15倍、予測精度はDeep Neural Networks(DNN)の1.25倍である。
論文 参考訳(メタデータ) (2024-06-05T02:50:27Z) - Joint Group Invariant Functions on Data-Parameter Domain Induce
Universal Neural Networks [14.45619075342763]
本稿では、一般化されたニューラルネットワークとその右逆演算子であるリッジレット変換を誘導する体系的手法を提案する。
リッジレット変換は逆であるため、対象関数を表すためにネットワークのパラメータの配置を記述することができる。
より広い階層のネットワークを包含する統一的な方法でシュルの補題を用いて、普遍性の新たな単純な証明を示す。
論文 参考訳(メタデータ) (2023-10-05T13:30:37Z) - Spiking Neural Network Decision Feedback Equalization [70.3497683558609]
決定フィードバック等化器(DFE)に似たフィードバック構造を持つSNNベースの等化器を提案する。
提案手法は,3種類の模範チャネルに対して,従来の線形等化器よりも明らかに優れていることを示す。
決定フィードバック構造を持つSNNは、競合エネルギー効率の良いトランシーバへのパスを可能にする。
論文 参考訳(メタデータ) (2022-11-09T09:19:15Z) - Tangent Bundle Filters and Neural Networks: from Manifolds to Cellular
Sheaves and Back [114.01902073621577]
畳み込みを用いて、タンジェントバンドルフィルタとタンジェントバンドルニューラルネットワーク(TNN)を定義する。
我々は、TNNを時間領域と空間領域の両方で識別し、その離散性は、最近導入されたSheaf Neural Networksの原則的な変種であることを示す。
単体2次元球面上の接ベクトル場の復調作業における提案手法の有効性を数値的に評価する。
論文 参考訳(メタデータ) (2022-10-26T21:55:45Z) - Universality of group convolutional neural networks based on ridgelet
analysis on groups [10.05944106581306]
グループ畳み込みニューラルネットワーク(GCNN)のリッジレット理論に基づく近似特性について検討する。
群表現間の非線形写像として多目的GCNNを定式化する。
論文 参考訳(メタデータ) (2022-05-30T02:52:22Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - Identifying and interpreting tuning dimensions in deep networks [83.59965686504822]
チューニングディメンションは、ニューロン群の活性化分散の大部分を占める刺激特性である。
この研究は、ディープ・ネットワークにおける「チューニング・ディメンション」を特定し解釈するための教師なしのフレームワークに貢献している。
論文 参考訳(メタデータ) (2020-11-05T21:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。