論文の概要: Objective Value Change and Shape-Based Accelerated Optimization for the Neural Network Approximation
- arxiv url: http://arxiv.org/abs/2508.20290v1
- Date: Wed, 27 Aug 2025 21:51:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.835649
- Title: Objective Value Change and Shape-Based Accelerated Optimization for the Neural Network Approximation
- Title(参考訳): ニューラルネットワーク近似のための目的値変化と形状に基づく高速化最適化
- Authors: Pengcheng Xie, Zihao Zhou, Zijian Zhou,
- Abstract要約: 本稿では、ニューラルネットワーク近似タスクの実行時の難易度と近似愛着度を測定するために、目的関数fの新たな測定基準を提案する。
VCは、ネットワークの振る舞いにおける局所的な価値変化の定量化尺度を提供することでこの問題に対処する。
さらに,2つの関数間の距離を変動の観点から測定するVCに基づく新しい計量法を提案する。
- 参考スコア(独自算出の注目度): 15.818533563804216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduce a novel metric of an objective function f, we say VC (value change) to measure the difficulty and approximation affection when conducting an neural network approximation task, and it numerically supports characterizing the local performance and behavior of neural network approximation. Neural networks often suffer from unpredictable local performance, which can hinder their reliability in critical applications. VC addresses this issue by providing a quantifiable measure of local value changes in network behavior, offering insights into the stability and performance for achieving the neural-network approximation. We investigate some fundamental theoretical properties of VC and identified two intriguing phenomena in neural network approximation: the VC-tendency and the minority-tendency. These trends respectively characterize how pointwise errors evolve in relation to the distribution of VC during the approximation process.In addition, we propose a novel metric based on VC, which measures the distance between two functions from the perspective of variation. Building upon this metric, we further propose a new preprocessing framework for neural network approximation. Numerical results including the real-world experiment and the PDE-related scientific problem support our discovery and pre-processing acceleration method.
- Abstract(参考訳): 本稿では、ニューラルネットワーク近似タスクの実行時の難易度と近似愛着度を測定するために、目的関数 f の新たなメトリックを導入し、ニューラルネットワーク近似の局所的な性能と振る舞いを数値的に支援する。
ニューラルネットワークはしばしば予測不能なローカルパフォーマンスに悩まされ、クリティカルなアプリケーションにおける信頼性を損なう。
VCは、ネットワークの振る舞いにおける局所的な価値変化の定量化尺度を提供し、ニューラルネットワーク近似を達成するための安定性とパフォーマンスに関する洞察を提供することで、この問題に対処する。
本稿では,VCの基本的な理論的特性について検討し,ニューラルネットワーク近似における2つの興味深い現象を同定した。
これらの傾向は, 近似過程におけるVCの分布に関して, 点方向の誤差がどのように進化するかを特徴付け, さらに, 変動の観点から2つの関数間の距離を測定するVCに基づく新しい計量法を提案する。
この指標に基づいて、ニューラルネットワーク近似のための新しい前処理フレームワークを提案する。
実世界の実験とPDEに関する科学的問題を含む数値的な結果は、我々の発見と前処理加速法を支持している。
関連論文リスト
- Certified Neural Approximations of Nonlinear Dynamics [52.79163248326912]
安全クリティカルな文脈では、神経近似の使用は、基礎となるシステムとの密接性に公式な境界を必要とする。
本稿では,認証された一階述語モデルに基づく新しい,適応的で並列化可能な検証手法を提案する。
論文 参考訳(メタデータ) (2025-05-21T13:22:20Z) - Quantification of Uncertainties in Probabilistic Deep Neural Network by Implementing Boosting of Variational Inference [0.38366697175402226]
Boosted Bayesian Neural Networks (BBNN)は、ニューラルネットワークの重み分布近似を強化する新しいアプローチである。
BBNNは従来のニューラルネットワークに比べて5%高い精度を実現している。
論文 参考訳(メタデータ) (2025-03-18T05:11:21Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - SEF: A Method for Computing Prediction Intervals by Shifting the Error Function in Neural Networks [0.0]
本稿では,このカテゴリに属する新しい手法としてSEF(Shifting the Error Function)法を提案する。
提案手法では,1つのニューラルネットワークを3回トレーニングすることで,与えられた問題に対して対応する上境界と下限とを推定する。
この革新的なプロセスは、PIを効果的に生成し、不確実性定量化のための堅牢で効率的な技術をもたらす。
論文 参考訳(メタデータ) (2024-09-08T19:46:45Z) - Spiking Neural Networks with Consistent Mapping Relations Allow High-Accuracy Inference [9.667807887916132]
スパイクベースのニューロモルフィックハードウェアは、低エネルギー消費と効率的な推論において大きな可能性を証明している。
ディープスパイクニューラルネットワークの直接トレーニングは困難であり、変換ベースの手法では未解決の変換エラーのため、かなりの遅延が必要になる。
論文 参考訳(メタデータ) (2024-06-08T06:40:00Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Conductivity Imaging from Internal Measurements with Mixed Least-Squares
Deep Neural Networks [4.228167013618626]
我々は,楕円型問題における導電率分布を再構築するために,ディープニューラルネットワークを用いた新しいアプローチを開発した。
連続的および経験的損失の両方に対して、導電率の深いニューラルネットワーク近似を徹底的に分析する。
論文 参考訳(メタデータ) (2023-03-29T04:43:03Z) - Variational Voxel Pseudo Image Tracking [127.46919555100543]
不確実性推定は、ロボット工学や自律運転といった重要な問題にとって重要なタスクである。
本稿では,3次元物体追跡のためのVoxel Pseudo Image Tracking (VPIT) の変分ニューラルネットワークによるバージョンを提案する。
論文 参考訳(メタデータ) (2023-02-12T13:34:50Z) - Approximation Power of Deep Neural Networks: an explanatory mathematical survey [0.0]
この調査では、ニューラルネットワークがターゲット関数をいかに効果的に近似するかを調べ、従来の近似法より優れている条件を特定する。
主なトピックは、ディープネットワークの非線形で構成的な構造と、回帰と分類設定における最適化問題としてのニューラルネットワークタスクの形式化である。
このサーベイは、深いReLUネットワークの近似能力と他の近似手法の近似能力を比較することで、連続関数空間におけるニューラルネットワークの密度を探索する。
論文 参考訳(メタデータ) (2022-07-19T18:47:44Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。