論文の概要: CauchyNet: Compact and Data-Efficient Learning using Holomorphic Activation Functions
- arxiv url: http://arxiv.org/abs/2510.10195v1
- Date: Sat, 11 Oct 2025 12:21:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.836778
- Title: CauchyNet: Compact and Data-Efficient Learning using Holomorphic Activation Functions
- Title(参考訳): CauchyNet: 正則活性化関数を用いたコンパクトかつデータ効率の学習
- Authors: Hong-Kun Zhang, Xin Li, Sikun Yang, Zhihong Xia,
- Abstract要約: CauchyNetは、Cauchyの積分式にインスパイアされた、新しいニューラルネットワークである。
実数値データを複雑な平面に埋め込むことで、CauchyNetは複雑な時間的依存関係を効率的にキャプチャする。
予測精度で最先端のモデルを一貫して上回る。
- 参考スコア(独自算出の注目度): 7.044579335285665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel neural network inspired by Cauchy's integral formula, is proposed for function approximation tasks that include time series forecasting, missing data imputation, etc. Hence, the novel neural network is named CauchyNet. By embedding real-valued data into the complex plane, CauchyNet efficiently captures complex temporal dependencies, surpassing traditional real-valued models in both predictive performance and computational efficiency. Grounded in Cauchy's integral formula and supported by the universal approximation theorem, CauchyNet offers strong theoretical guarantees for function approximation. The architecture incorporates complex-valued activation functions, enabling robust learning from incomplete data while maintaining a compact parameter footprint and reducing computational overhead. Through extensive experiments in diverse domains, including transportation, energy consumption, and epidemiological data, CauchyNet consistently outperforms state-of-the-art models in predictive accuracy, often achieving a 50% lower mean absolute error with fewer parameters. These findings highlight CauchyNet's potential as an effective and efficient tool for data-driven predictive modeling, particularly in resource-constrained and data-scarce environments.
- Abstract(参考訳): Cauchyの積分式にインスパイアされた新しいニューラルネットワークは、時系列予測やデータ計算の欠如などを含む関数近似タスクのために提案されている。
そのため、新しいニューラルネットワークはCauchyNetと名付けられた。
実数値データを複素平面に埋め込むことで、CauchyNetは複雑な時間的依存関係を効率的に捕捉し、予測性能と計算効率の両方で従来の実数値モデルを上回る。
コーシーの積分公式に基礎を置き、普遍近似定理に支えられ、コーシーネットは関数近似の強い理論的保証を提供する。
このアーキテクチャは複雑な値のアクティベーション機能を備えており、コンパクトなパラメータフットプリントを維持しながら不完全なデータから堅牢な学習を可能にし、計算オーバーヘッドを低減する。
輸送、エネルギー消費、疫学データを含む様々な領域での広範な実験を通じて、コーシーネットは予測精度において最先端のモデルを一貫して上回り、パラメータが少なく50%低い平均絶対誤差を達成している。
これらの知見は、特にリソース制約とデータスカース環境において、データ駆動予測モデリングの効率的かつ効率的なツールとしてのCauchyNetの可能性を浮き彫りにしている。
関連論文リスト
- Provably robust learning of regression neural networks using $β$-divergences [1.2891210250935143]
既存の回帰ニューラルネットワーク(NN)の堅牢なトレーニング方法はスコープが限られており、主に経験的検証に依存していることが多い。
我々は、rRNetと呼ぶ$$-divergence(密度電力分散とも呼ばれる)に基づく回帰NNのための新しい頑健な学習フレームワークを提案する。
rRNetがすべての$in(0, 1]$に対して仮定されたモデルで50%のブレークポイントを最適に達成し、強力な大域的ロバスト性を保証することを証明している。
論文 参考訳(メタデータ) (2026-02-09T17:32:43Z) - Kolmogorov Arnold Networks and Multi-Layer Perceptrons: A Paradigm Shift in Neural Modelling [1.6998720690708842]
Kolmogorov-Arnold Networks(KAN)とMulti-Layer Perceptrons(MLP)の総合的比較分析を行った。
Kansはスプラインベースのアクティベーション機能とグリッドベースの構造を利用し、従来のニューラルネットワークフレームワークと比較して変革的なアプローチを提供する。
本研究は,先進的なインテリジェントシステムにおけるkansの変換能力について述べる。
論文 参考訳(メタデータ) (2026-01-15T16:26:49Z) - White-Basilisk: A Hybrid Model for Code Vulnerability Detection [45.03594130075282]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - Neural Conformal Control for Time Series Forecasting [54.96087475179419]
非定常環境における適応性を高める時系列のニューラルネットワーク共形予測手法を提案する。
提案手法は,ニューラルネットワークエンコーダを用いた補助的マルチビューデータを活用することにより,望ましい対象範囲を達成するために設計されたニューラルネットワークコントローラとして機能する。
予測間隔の整合性に優れたキャリブレーションを組み合わさった手法は, 適用範囲と確率的精度の大幅な向上を実証的に示す。
論文 参考訳(メタデータ) (2024-12-24T03:56:25Z) - IB-AdCSCNet:Adaptive Convolutional Sparse Coding Network Driven by Information Bottleneck [4.523653503622693]
IB-AdCSCNetは情報ボトルネック理論に基づくディープラーニングモデルである。
IB-AdCSCNetは、情報ボトルネックトレードオフ戦略をディープネットワークにシームレスに統合する。
CIFAR-10とCIFAR-100データセットの実験結果は、IB-AdCSCNetが深い残差畳み込みネットワークの性能にマッチするだけでなく、破損したデータを扱う際の性能も優れていることを示した。
論文 参考訳(メタデータ) (2024-05-23T05:35:57Z) - Nonlinear functional regression by functional deep neural network with kernel embedding [18.927592350748682]
本稿では,適応型・離散化不変次元減少法による機能的ディープニューラルネットワークを提案する。
様々な入力関数空間にまたがる非線形滑らかな関数の近似の比例率を導出する。
シミュレーションと実データの両方で数値実験を行い、機能ネットの有効性と利点を実証する。
論文 参考訳(メタデータ) (2024-01-05T16:43:39Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Interpretable Neural Networks with Random Constructive Algorithm [3.1200894334384954]
本稿では,無作為重み付きニューラルネットワークの不透明なパラメータ化プロセスに取り組むために,空間情報を組み込んだ解釈型ニューラルネットワーク(INN)を提案する。
ネットワーク収束に寄与するノードパラメータを選択するために、候補ノードのプールと関係を確立することで、幾何学的関係戦略を考案する。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - Benefits of Overparameterized Convolutional Residual Networks: Function
Approximation under Smoothness Constraint [48.25573695787407]
大規模なConvResNetは関数の値から目的関数を近似できるだけでなく、一階スムーズ性も十分に発揮できることを示す。
我々の理論は、実際にディープ・ワイド・ネットワークを使うことの利点を部分的に正当化している。
論文 参考訳(メタデータ) (2022-06-09T15:35:22Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - A Free Lunch with Influence Functions? Improving Neural Network
Estimates with Concepts from Semiparametric Statistics [41.99023989695363]
ニューラルネットワークや機械学習アルゴリズムの改善に使用される半パラメトリック理論の可能性を探る。
本稿では,単一アーキテクチャを用いてアンサンブルの柔軟性と多様性を求めるニューラルネットワーク手法であるMultiNetを提案する。
論文 参考訳(メタデータ) (2022-02-18T09:35:51Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - CovNet: Covariance Networks for Functional Data on Multidimensional
Domains [4.619541348328937]
モデリングおよび推定ツールとしてCovariance Networks (CovNet) を導入する。
モデルはデータに効率的に適合することができ、そのニューラルネットワークアーキテクチャにより、実装に現代的な計算ツールを利用できる。
提案手法の有用性は広範なシミュレーション研究によって実証されている。
論文 参考訳(メタデータ) (2021-04-11T14:40:41Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。