論文の概要: The Alexander-Hirschowitz theorem for neurovarieties
- arxiv url: http://arxiv.org/abs/2511.19703v1
- Date: Mon, 24 Nov 2025 21:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.161258
- Title: The Alexander-Hirschowitz theorem for neurovarieties
- Title(参考訳): 神経変量に対するアレクサンドル・ヒルショヴィッツの定理
- Authors: A. Massarenti, M. Mella,
- Abstract要約: ニューラルネットワークのニューロバリアリティについて検討し、単出力の場合の期待次元に到達すると完全に特徴付ける。
その結果,多出力アーキテクチャにおける非欠陥性とグローバルな識別性を確立した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study neurovarieties for polynomial neural networks and fully characterize when they attain the expected dimension in the single-output case. As consequences, we establish non-defectiveness and global identifiability for multi-output architectures.
- Abstract(参考訳): 本稿では, 多項式ニューラルネットワークのニューロバリアリティについて検討し, 単出力の場合の期待次元に到達すると, 完全な特徴付けを行う。
その結果,多出力アーキテクチャにおける非欠陥性とグローバルな識別性を確立した。
関連論文リスト
- NOBLE -- Neural Operator with Biologically-informed Latent Embeddings to Capture Experimental Variability in Biological Neuron Models [63.592664795493725]
NOBLEは、解釈可能なニューロンの特徴を連続周波数変調した埋め込みから電流注入によって誘導されるソマティック電圧応答へのマッピングを学ぶ神経オペレーターフレームワークである。
内在的な実験変数を考慮したニューラルダイナミクスの分布を予測する。
NOBLEは、その一般化を実際の実験データで検証する最初の大規模ディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-06-05T01:01:18Z) - Geometry-Informed Neural Networks [15.27249535281444]
形状インフォームドニューラルネットワーク(GINN)は、形状生成ニューラルネットワークをデータなしで訓練するためのフレームワークである。
GINNはモード崩壊を回避し、幾何処理に必要な様々なソリューションを生成することができる。
これらの結果は、データのない形状生成モデルのトレーニングの可能性を示し、大規模なデータセットを持たない新しい生成設計アプローチの道を開いた。
論文 参考訳(メタデータ) (2024-02-21T18:50:12Z) - Towards Optimal Neural Networks: the Role of Sample Splitting in
Hyperparameter Selection [10.083181657981292]
我々はニューラルネットワークの有効性を理解するための新しい理論を構築した。
具体的には、ニューラルネットワークモデルの構築において、共通の実践の基礎となる理論的根拠について検討する。
論文 参考訳(メタデータ) (2023-07-15T06:46:40Z) - On the Approximation and Complexity of Deep Neural Networks to Invariant
Functions [0.0]
深部ニューラルネットワークの不変関数への近似と複雑性について検討する。
様々なタイプのニューラルネットワークモデルにより、幅広い不変関数を近似できることを示す。
我々は,高分解能信号のパラメータ推定と予測を理論的結論と結びつけることが可能なアプリケーションを提案する。
論文 参考訳(メタデータ) (2022-10-27T09:19:19Z) - On the Intrinsic Structures of Spiking Neural Networks [66.57589494713515]
近年、時間依存データやイベント駆動データを扱う大きな可能性から、SNNへの関心が高まっている。
スパイキング計算における本質的な構造の影響を総合的に調査する研究が数多く行われている。
この研究はSNNの本質的な構造を深く掘り下げ、SNNの表現性への影響を解明する。
論文 参考訳(メタデータ) (2022-06-21T09:42:30Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Polynomial-Spline Neural Networks with Exact Integrals [0.0]
我々は,実験モデルの混合と自由結び目B1-スプライン基底関数を組み合わせた新しいニューラルネットワークアーキテクチャを開発した。
我々のアーキテクチャは近似理論から期待される収束率での回帰問題に対する$h$-および$p$-の洗練を示す。
ネットワークアーキテクチャの一貫性と正確な統合性を示す様々な回帰問題と変分問題において、我々のネットワークの成功を実証する。
論文 参考訳(メタデータ) (2021-10-26T22:12:37Z) - Non-asymptotic Excess Risk Bounds for Classification with Deep
Convolutional Neural Networks [6.051520664893158]
本稿では,一般の深層畳み込みニューラルネットワークを用いたバイナリ分類の問題を考える。
我々は、入力データ次元と他のモデルパラメータの観点から、リスク境界の要素を定義する。
CNNを用いた分類手法は次元の呪いを回避できることを示す。
論文 参考訳(メタデータ) (2021-05-01T15:55:04Z) - Formalizing Generalization and Robustness of Neural Networks to Weight
Perturbations [58.731070632586594]
非負のモノトーンアクティベーション機能を備えたフィードフォワードニューラルネットワークの重量変動に対する最初の形式解析を提供します。
また,重みの摂動に対して一般化し頑健なニューラルネットワークを訓練するための新しい理論駆動損失関数を設計した。
論文 参考訳(メタデータ) (2021-03-03T06:17:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。