論文の概要: Steinmetz Neural Networks for Complex-Valued Data
- arxiv url: http://arxiv.org/abs/2409.10075v1
- Date: Mon, 16 Sep 2024 08:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 16:21:11.831920
- Title: Steinmetz Neural Networks for Complex-Valued Data
- Title(参考訳): 複素値データのためのシュタインメッツニューラルネットワーク
- Authors: Shyam Venkatasubramanian, Ali Pezeshki, Vahid Tarokh,
- Abstract要約: 本稿では,並列実数値処理と結合出力を組み合わせたDNNを用いた複素数値データ処理手法を提案する。
本稿では,Steinmetzニューラルネットワークの潜時空間における解析信号表現を促進する一貫性ペナルティを実装した解析ニューラルネットワークを提案する。
提案手法は,提案するネットワークがベンチマークデータセットと合成例を用いて提案し,性能向上と付加雑音に対する頑健性を実証した。
- 参考スコア(独自算出の注目度): 23.80312814400945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a new approach to processing complex-valued data using DNNs consisting of parallel real-valued subnetworks with coupled outputs. Our proposed class of architectures, referred to as Steinmetz Neural Networks, leverages multi-view learning to construct more interpretable representations within the latent space. Subsequently, we present the Analytic Neural Network, which implements a consistency penalty that encourages analytic signal representations in the Steinmetz neural network's latent space. This penalty enforces a deterministic and orthogonal relationship between the real and imaginary components. Utilizing an information-theoretic construction, we demonstrate that the upper bound on the generalization error posited by the analytic neural network is lower than that of the general class of Steinmetz neural networks. Our numerical experiments demonstrate the improved performance and robustness to additive noise, afforded by our proposed networks on benchmark datasets and synthetic examples.
- Abstract(参考訳): 本研究では、並列実数値サブネットと結合出力からなるDNNを用いて、複素数値データを処理するための新しいアプローチを提案する。
提案するアーキテクチャのクラスはSteinmetz Neural Networksと呼ばれ、多視点学習を利用して、潜在空間内でより解釈可能な表現を構築する。
次に、Steinmetzニューラルネットワークの潜在空間における解析信号表現を促進する一貫性ペナルティを実装した分析ニューラルネットワークを提案する。
この罰は、実数成分と虚数成分の間の決定論的、直交的な関係を強制する。
情報理論的な構成を用いることで、解析的ニューラルネットワークによって提案される一般化誤差の上限が、スタインメッツニューラルネットワークの一般クラスよりも低いことを示す。
提案手法は,提案ネットワークがベンチマークデータセットと合成例を用いて提案した付加雑音に対する性能改善と頑健性を示す。
関連論文リスト
- Deep Neural Networks via Complex Network Theory: a Perspective [3.1023851130450684]
ディープニューラルネットワーク(DNN)は、リンクと頂点が反復的にデータを処理し、タスクを亜最適に解くグラフとして表現することができる。複雑なネットワーク理論(CNT)は、統計物理学とグラフ理論を融合させ、その重みとニューロン構造を分析してニューラルネットワークを解釈する方法を提供する。
本研究では,DNNのトレーニング分布から抽出した測定値を用いて既存のCNTメトリクスを拡張し,純粋なトポロジカル解析からディープラーニングの解釈可能性へ移行する。
論文 参考訳(メタデータ) (2024-04-17T08:42:42Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Persistence-based operators in machine learning [62.997667081978825]
永続性に基づくニューラルネットワークレイヤのクラスを導入します。
永続化ベースのレイヤにより、ユーザは、データによって尊重される対称性に関する知識を容易に注入でき、学習可能なウェイトを備え、最先端のニューラルネットワークアーキテクチャで構成できる。
論文 参考訳(メタデータ) (2022-12-28T18:03:41Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - An Analysis of Complex-Valued CNNs for RF Data-Driven Wireless Device
Classification [12.810432378755904]
最近のディープニューラルネットワークに基づくデバイス分類研究は、複素数値ニューラルネットワーク(CVNN)が実数値ニューラルネットワーク(RVNN)よりも高い分類精度が得られることを示している。
本研究は、実際のLoRaおよびWiFi RFデータセットを用いて、この傾向についてより深く理解する。
論文 参考訳(メタデータ) (2022-02-20T10:35:20Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z) - Creating Powerful and Interpretable Models withRegression Networks [2.2049183478692584]
本稿では,ニューラルネットワークのパワーと回帰分析の可視性を組み合わせた新しいアーキテクチャRegression Networksを提案する。
これらのモデルが,いくつかのベンチマークデータセット上での解釈可能なモデルの最先端性能を上回ることを実証する。
論文 参考訳(メタデータ) (2021-07-30T03:37:00Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。