論文の概要: Learning Neural Antiderivatives
- arxiv url: http://arxiv.org/abs/2509.17755v1
- Date: Mon, 22 Sep 2025 13:19:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.406169
- Title: Learning Neural Antiderivatives
- Title(参考訳): ニューラルな鎮静剤の学習
- Authors: Fizza Rubab, Ntumba Elie Nsampi, Martin Balint, Felix Mujkanovic, Hans-Peter Seidel, Tobias Ritschel, Thomas Leimkühler,
- Abstract要約: 本研究は, 反復性抗誘導体の神経表現を関数から直接学習する問題について考察する。
我々は、反復的な統合のための様々なニューラルメソッドを導入、分析する。
- 参考スコア(独自算出の注目度): 17.270555521913902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural fields offer continuous, learnable representations that extend beyond traditional discrete formats in visual computing. We study the problem of learning neural representations of repeated antiderivatives directly from a function, a continuous analogue of summed-area tables. Although widely used in discrete domains, such cumulative schemes rely on grids, which prevents their applicability in continuous neural contexts. We introduce and analyze a range of neural methods for repeated integration, including both adaptations of prior work and novel designs. Our evaluation spans multiple input dimensionalities and integration orders, assessing both reconstruction quality and performance in downstream tasks such as filtering and rendering. These results enable integrating classical cumulative operators into modern neural systems and offer insights into learning tasks involving differential and integral operators.
- Abstract(参考訳): ニューラルネットワークは、ビジュアルコンピューティングにおける従来の離散形式を超えて、連続的に学習可能な表現を提供する。
本研究は, 連続的な表の類似である関数から直接, 反復する抗誘導体の神経表現を学習する問題について考察する。
離散的な領域で広く使われているが、そのような累積スキームはグリッドに依存しており、連続的な神経コンテキストにおける適用性を妨げている。
我々は,先行作業の適応と新規設計の両方を含む,反復的な統合のための様々なニューラル手法を導入,分析する。
評価は複数の入力次元と統合順序にまたがり、フィルタやレンダリングといった下流タスクにおける再構成品質と性能の評価を行う。
これらの結果は、古典的累積演算子を現代のニューラルネットワークに統合し、微分演算子と積分演算子を含む学習タスクに関する洞察を与える。
関連論文リスト
- Principled Approaches for Extending Neural Architectures to Function Spaces for Operator Learning [78.88684753303794]
ディープラーニングは主にコンピュータビジョンと自然言語処理の応用を通じて進歩してきた。
ニューラル演算子は、関数空間間のマッピングにニューラルネットワークを一般化する原則的な方法である。
本稿では、無限次元関数空間間の写像の実践的な実装を構築するための鍵となる原理を同定し、蒸留する。
論文 参考訳(メタデータ) (2025-06-12T17:59:31Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Neural Operator Learning for Long-Time Integration in Dynamical Systems with Recurrent Neural Networks [1.6874375111244329]
深層ニューラルネットワークは、推論中に計算コストを削減し、観測データから直接トレーニングすることができる。
しかし、既存の手法は正確には外挿できないため、長時間の統合ではエラーの蓄積が困難である。
ニューラル演算子とリカレントニューラルネットワークを組み合わせることでこの問題に対処し、オペレータマッピングを学習し、時間的依存関係をキャプチャするリカレント構造を提供する。
論文 参考訳(メタデータ) (2023-03-03T22:19:23Z) - Neural-Symbolic Recursive Machine for Systematic Generalization [113.22455566135757]
我々は、基底記号システム(GSS)のコアとなるニューラル・シンボリック再帰機械(NSR)を紹介する。
NSRは神経知覚、構文解析、意味推論を統合している。
我々はNSRの有効性を,系統的一般化能力の探索を目的とした4つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-10-04T13:27:38Z) - Discretization Invariant Networks for Learning Maps between Neural
Fields [3.09125960098955]
離散化不変ニューラルネットワーク(DI-Net)の理解と設計のための新しいフレームワークを提案する。
我々の分析は、異なる有限離散化の下でのモデル出力の偏差の上限を確立する。
構成により、DI-Netsは可積分函数空間間の大きな写像のクラスを普遍的に近似することが証明される。
論文 参考訳(メタデータ) (2022-06-02T17:44:03Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Scalable Polyhedral Verification of Recurrent Neural Networks [9.781772283276734]
本稿では, Prover と呼ばれる再帰型ニューラルネットワークのスケーラブルかつ高精度な検証手法を提案する。
評価の結果,Proverはコンピュータビジョン,音声,モーションセンサの分類において,いくつかの難解な再帰モデルを検証できた。
論文 参考訳(メタデータ) (2020-05-27T11:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。