論文の概要: CauchyNet: Compact and Data-Efficient Learning using Holomorphic Activation Functions
- arxiv url: http://arxiv.org/abs/2510.10195v1
- Date: Sat, 11 Oct 2025 12:21:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.836778
- Title: CauchyNet: Compact and Data-Efficient Learning using Holomorphic Activation Functions
- Title(参考訳): CauchyNet: 正則活性化関数を用いたコンパクトかつデータ効率の学習
- Authors: Hong-Kun Zhang, Xin Li, Sikun Yang, Zhihong Xia,
- Abstract要約: CauchyNetは、Cauchyの積分式にインスパイアされた、新しいニューラルネットワークである。
実数値データを複雑な平面に埋め込むことで、CauchyNetは複雑な時間的依存関係を効率的にキャプチャする。
予測精度で最先端のモデルを一貫して上回る。
- 参考スコア(独自算出の注目度): 7.044579335285665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel neural network inspired by Cauchy's integral formula, is proposed for function approximation tasks that include time series forecasting, missing data imputation, etc. Hence, the novel neural network is named CauchyNet. By embedding real-valued data into the complex plane, CauchyNet efficiently captures complex temporal dependencies, surpassing traditional real-valued models in both predictive performance and computational efficiency. Grounded in Cauchy's integral formula and supported by the universal approximation theorem, CauchyNet offers strong theoretical guarantees for function approximation. The architecture incorporates complex-valued activation functions, enabling robust learning from incomplete data while maintaining a compact parameter footprint and reducing computational overhead. Through extensive experiments in diverse domains, including transportation, energy consumption, and epidemiological data, CauchyNet consistently outperforms state-of-the-art models in predictive accuracy, often achieving a 50% lower mean absolute error with fewer parameters. These findings highlight CauchyNet's potential as an effective and efficient tool for data-driven predictive modeling, particularly in resource-constrained and data-scarce environments.
- Abstract(参考訳): Cauchyの積分式にインスパイアされた新しいニューラルネットワークは、時系列予測やデータ計算の欠如などを含む関数近似タスクのために提案されている。
そのため、新しいニューラルネットワークはCauchyNetと名付けられた。
実数値データを複素平面に埋め込むことで、CauchyNetは複雑な時間的依存関係を効率的に捕捉し、予測性能と計算効率の両方で従来の実数値モデルを上回る。
コーシーの積分公式に基礎を置き、普遍近似定理に支えられ、コーシーネットは関数近似の強い理論的保証を提供する。
このアーキテクチャは複雑な値のアクティベーション機能を備えており、コンパクトなパラメータフットプリントを維持しながら不完全なデータから堅牢な学習を可能にし、計算オーバーヘッドを低減する。
輸送、エネルギー消費、疫学データを含む様々な領域での広範な実験を通じて、コーシーネットは予測精度において最先端のモデルを一貫して上回り、パラメータが少なく50%低い平均絶対誤差を達成している。
これらの知見は、特にリソース制約とデータスカース環境において、データ駆動予測モデリングの効率的かつ効率的なツールとしてのCauchyNetの可能性を浮き彫りにしている。
関連論文リスト
- White-Basilisk: A Hybrid Model for Code Vulnerability Detection [45.03594130075282]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - IB-AdCSCNet:Adaptive Convolutional Sparse Coding Network Driven by Information Bottleneck [4.523653503622693]
IB-AdCSCNetは情報ボトルネック理論に基づくディープラーニングモデルである。
IB-AdCSCNetは、情報ボトルネックトレードオフ戦略をディープネットワークにシームレスに統合する。
CIFAR-10とCIFAR-100データセットの実験結果は、IB-AdCSCNetが深い残差畳み込みネットワークの性能にマッチするだけでなく、破損したデータを扱う際の性能も優れていることを示した。
論文 参考訳(メタデータ) (2024-05-23T05:35:57Z) - Nonlinear functional regression by functional deep neural network with kernel embedding [18.927592350748682]
本稿では,適応型・離散化不変次元減少法による機能的ディープニューラルネットワークを提案する。
様々な入力関数空間にまたがる非線形滑らかな関数の近似の比例率を導出する。
シミュレーションと実データの両方で数値実験を行い、機能ネットの有効性と利点を実証する。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Benefits of Overparameterized Convolutional Residual Networks: Function
Approximation under Smoothness Constraint [48.25573695787407]
大規模なConvResNetは関数の値から目的関数を近似できるだけでなく、一階スムーズ性も十分に発揮できることを示す。
我々の理論は、実際にディープ・ワイド・ネットワークを使うことの利点を部分的に正当化している。
論文 参考訳(メタデータ) (2022-06-09T15:35:22Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - CovNet: Covariance Networks for Functional Data on Multidimensional
Domains [4.619541348328937]
モデリングおよび推定ツールとしてCovariance Networks (CovNet) を導入する。
モデルはデータに効率的に適合することができ、そのニューラルネットワークアーキテクチャにより、実装に現代的な計算ツールを利用できる。
提案手法の有用性は広範なシミュレーション研究によって実証されている。
論文 参考訳(メタデータ) (2021-04-11T14:40:41Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。