論文の概要: DFNN: A Deep Fréchet Neural Network Framework for Learning Metric-Space-Valued Responses
- arxiv url: http://arxiv.org/abs/2510.17072v1
- Date: Mon, 20 Oct 2025 00:57:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.276254
- Title: DFNN: A Deep Fréchet Neural Network Framework for Learning Metric-Space-Valued Responses
- Title(参考訳): DFNN: メトリクス空間値応答を学習するためのディープフレシェニューラルネットワークフレームワーク
- Authors: Kyum Kim, Yaqing Chen, Paromita Dubey,
- Abstract要約: Deep Fr'echet Neural Network(DFNN)は、ユークリッド予測器から非ユークリッド応答を予測するためのエンドツーエンドのディープラーニングフレームワークである。
我々は、DFNNの普遍近似定理を確立し、ニューラルネットワーク近似理論の最先端を推し進める。
DFNNが既存の手法を一貫して上回ることを示すために, 合成分布およびネットワーク評価応答に関する実証的研究と, 実世界の雇用構成予測への応用を行った。
- 参考スコア(独自算出の注目度): 0.25778694761493826
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regression with non-Euclidean responses -- e.g., probability distributions, networks, symmetric positive-definite matrices, and compositions -- has become increasingly important in modern applications. In this paper, we propose deep Fr\'echet neural networks (DFNNs), an end-to-end deep learning framework for predicting non-Euclidean responses -- which are considered as random objects in a metric space -- from Euclidean predictors. Our method leverages the representation-learning power of deep neural networks (DNNs) to the task of approximating conditional Fr\'echet means of the response given the predictors, the metric-space analogue of conditional expectations, by minimizing a Fr\'echet risk. The framework is highly flexible, accommodating diverse metrics and high-dimensional predictors. We establish a universal approximation theorem for DFNNs, advancing the state-of-the-art of neural network approximation theory to general metric-space-valued responses without making model assumptions or relying on local smoothing. Empirical studies on synthetic distributional and network-valued responses, as well as a real-world application to predicting employment occupational compositions, demonstrate that DFNNs consistently outperform existing methods.
- Abstract(参考訳): 非ユークリッド応答(例えば確率分布、ネットワーク、対称正定行列、合成)による回帰は、現代の応用においてますます重要になっている。
本稿では,非ユークリッド応答を予測するためのエンドツーエンドのディープラーニングフレームワークであるDeep Fr\'echet Neural Network (DFNN)を提案する。
提案手法は,Fr'echetリスクを最小化することにより,DNN(Deep Neural Network)の表現学習能力を利用して,予測値である条件付き予測値(条件付き予測値)の条件付き平均値(Fr'echet平均値)を近似する。
フレームワークは非常に柔軟で、多様なメトリクスと高次元の予測器を備えている。
我々は、DFNNの普遍近似定理を確立し、モデル仮定や局所的滑らか化に頼ることなく、ニューラルネットワーク近似理論の最先端を一般的な計量空間値応答へと進める。
DFNNが既存の手法を一貫して上回ることを示すために, 合成分布およびネットワーク評価応答に関する実証的研究と, 実世界の雇用構成予測への応用を行った。
関連論文リスト
- Fréchet Cumulative Covariance Net for Deep Nonlinear Sufficient Dimension Reduction with Random Objects [22.156257535146004]
Fr'echet Cumulative Covariance (FCCov) と呼ばれる新しい統計依存度尺度を導入し、FCCovに基づく新しい非線形SDRフレームワークを開発する。
我々のアプローチは複雑な非ユークリッドデータに適用できるだけでなく、外れ値に対する堅牢性も示している。
正方形フロベニウスノルム正規化の手法は、$sigma$-fieldレベルで不偏性を達成することを証明している。
論文 参考訳(メタデータ) (2025-02-21T10:55:50Z) - Deep Fréchet Regression [4.915744683251151]
パラメトリックな仮定を課さずに高次元予測器を扱えるフレキシブル回帰モデルを提案する。
提案手法は,非ユークリッド応答に対する既存手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-31T07:54:14Z) - Universal Approximation and the Topological Neural Network [0.0]
トポロジカルニューラルネットワーク(TNN)は、通常の有限次元空間の代わりにチコノフ位相空間からデータを取得する。
また、ボレル測度をデータとする分布ニューラルネットワーク(DNN)も導入する。
論文 参考訳(メタデータ) (2023-05-26T05:28:10Z) - Information Bottleneck Analysis of Deep Neural Networks via Lossy Compression [37.69303106863453]
Information Bottleneck(IB)原則は、ディープニューラルネットワーク(DNN)のトレーニングプロセスを分析するための情報理論フレームワークを提供する。
本稿では,一般NNのICB解析を行うためのフレームワークを提案する。
また,MI力学の新たな特徴を明らかにするため,実規模に近いISB解析を行う。
論文 参考訳(メタデータ) (2023-05-13T21:44:32Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Regression modelling of spatiotemporal extreme U.S. wildfires via
partially-interpretable neural networks [0.0]
人工ニュートラルネットワークを用いた極端量子レグレッションを実現するための新しい手法フレームワークを提案する。
我々は、線形で付加的な回帰手法をディープラーニングと統合し、部分的に解釈可能なニューラルネットワークを作成する。
論文 参考訳(メタデータ) (2022-08-16T07:42:53Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。