論文の概要: HyperNOs: Automated and Parallel Library for Neural Operators Research
- arxiv url: http://arxiv.org/abs/2503.18087v1
- Date: Sun, 23 Mar 2025 14:39:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:33:18.057094
- Title: HyperNOs: Automated and Parallel Library for Neural Operators Research
- Title(参考訳): HyperNOs: ニューラルネットワーク研究のための自動化および並列ライブラリ
- Authors: Massimiliano Ghiotto,
- Abstract要約: HyperNOsは、ニューラルネットワークの探索プロセスの合理化と自動化を目的として設計されたPyTorchライブラリである。
HyperNOsは最先端の最適化アルゴリズムと並列コンピューティングを利用する。
このライブラリは提供されたモデルとデータセットで簡単に使用できるように設計されているが、新しいデータセットやカスタムのニューラルオペレータアーキテクチャを使用するために容易に拡張できる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper introduces HyperNOs, a PyTorch library designed to streamline and automate the process of exploring neural operators, with a special focus on hyperparameter optimization for comprehensive and exhaustive exploration. Indeed, HyperNOs takes advantage of state-of-the-art optimization algorithms and parallel computing implemented in the Ray-tune library to efficiently explore the hyperparameter space of neural operators. We also implement many useful functionalities for studying neural operators with a user-friendly interface, such as the possibility to train the model with a fixed number of parameters or to train the model with multiple datasets and different resolutions. We integrate Fourier neural operators and convolutional neural operators in our library, achieving state of the art results on many representative benchmarks, demonstrating the capabilities of HyperNOs to handle real datasets and modern architectures. The library is designed to be easy to use with the provided model and datasets, but also to be easily extended to use new datasets and custom neural operator architectures.
- Abstract(参考訳): 本稿では,ニューラル演算子の探索プロセスの合理化と自動化を目的としたPyTorchライブラリであるHyperNOsを紹介する。
実際、HyperNOsはRay-Tuneライブラリで実装された最先端の最適化アルゴリズムと並列コンピューティングを利用して、ニューラル演算子のハイパーパラメータ空間を効率的に探索する。
また、ユーザフレンドリなインターフェースでニューラル演算子を研究するための有用な機能として、一定の数のパラメータでモデルをトレーニングしたり、複数のデータセットと異なる解像度でモデルをトレーニングしたりすることが可能です。
ライブラリにフーリエニューラル演算子と畳み込みニューラル演算子を統合し、多くの代表的なベンチマークで最先端の結果を達成し、実際のデータセットやモダンアーキテクチャを扱うHyperNOの能力を実証します。
このライブラリは提供されたモデルとデータセットで簡単に使用できるように設計されているが、新しいデータセットやカスタムのニューラルオペレータアーキテクチャを使用するために容易に拡張できる。
関連論文リスト
- A Library for Learning Neural Operators [77.16483961863808]
我々は、演算子学習のためのオープンソースのPythonライブラリであるNeuralOperatorを紹介する。
ニューラルネットワークは有限次元ユークリッド空間の代わりに関数空間間の写像に一般化される。
PyTorch上に構築されたNeuralOperatorは、ニューラルオペレータモデルのトレーニングとデプロイのためのツールをすべて提供する。
論文 参考訳(メタデータ) (2024-12-13T18:49:37Z) - Convolutional Neural Operators for robust and accurate learning of PDEs [11.562748612983956]
本稿では、入力や出力として関数を処理する畳み込みニューラルネットワークの新しい適応法を提案する。
結果として生じるアーキテクチャは、畳み込みニューラル演算子(CNO)と呼ばれる。
普遍性定理を証明し、CNOが PDE で生じる作用素を所望の精度で近似できることを示す。
論文 参考訳(メタデータ) (2023-02-02T15:54:45Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - FastONN -- Python based open-source GPU implementation for Operational
Neural Networks [25.838282412957675]
この作業では、オペレーショナルニューラルネットワークをトレーニングするための高速GPU対応ライブラリであるFastONNが導入されている。
FastONNは、オペレーショナルニューロンの新しいベクトル化された定式化に基づいている。
バンドルされた補助モジュールは、さまざまなデータパーティションとカスタマイズされたメトリクスにわたるパフォーマンストラッキングとチェックポイントのためのインターフェースを提供する。
論文 参考訳(メタデータ) (2020-06-03T13:33:35Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z) - PHOTONAI -- A Python API for Rapid Machine Learning Model Development [2.414341608751139]
PHOTONAIは、機械学習モデル開発の簡素化と高速化を目的とした、ハイレベルなPython APIである。
これは統一フレームワークとして機能し、ユーザーは異なるツールボックスからのアルゴリズムをカスタムのアルゴリズムシーケンスに簡単にアクセスし、組み合わせることができる。
論文 参考訳(メタデータ) (2020-02-13T10:33:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。