論文の概要: Neural Network Interoperability Across Platforms
- arxiv url: http://arxiv.org/abs/2511.02610v1
- Date: Tue, 04 Nov 2025 14:35:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.076066
- Title: Neural Network Interoperability Across Platforms
- Title(参考訳): プラットフォーム間のニューラルネットワークの相互運用性
- Authors: Nadia Daoudi, Ivan Alfonso, Jordi Cabot,
- Abstract要約: ディープラーニングフレームワーク間でニューラルネットワークコードを自動的に移行するアプローチを提案する。
本手法では, 移行前にNNの抽象化を作成するために, ピボットNNモデルを用いる。
5つのNNを実験的に評価した結果,提案手法はコードの移行に成功し,元のNNと機能的に等価なNNを生成することができた。
- 参考スコア(独自算出の注目度): 1.4764880312718967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The development of smart systems (i.e., systems enhanced with AI components) has thrived thanks to the rapid advancements in neural networks (NNs). A wide range of libraries and frameworks have consequently emerged to support NN design and implementation. The choice depends on factors such as available functionalities, ease of use, documentation and community support. After adopting a given NN framework, organizations might later choose to switch to another if performance declines, requirements evolve, or new features are introduced. Unfortunately, migrating NN implementations across libraries is challenging due to the lack of migration approaches specifically tailored for NNs. This leads to increased time and effort to modernize NNs, as manual updates are necessary to avoid relying on outdated implementations and ensure compatibility with new features. In this paper, we propose an approach to automatically migrate neural network code across deep learning frameworks. Our method makes use of a pivot NN model to create an abstraction of the NN prior to migration. We validate our approach using two popular NN frameworks, namely PyTorch and TensorFlow. We also discuss the challenges of migrating code between the two frameworks and how they were approached in our method. Experimental evaluation on five NNs shows that our approach successfully migrates their code and produces NNs that are functionally equivalent to the originals. Artefacts from our work are available online.
- Abstract(参考訳): ニューラルネットワーク(NN)の急速な進歩により、スマートシステム(つまりAIコンポーネントで強化されたシステム)の開発は成長している。
その結果、NNの設計と実装をサポートするために、幅広いライブラリとフレームワークが登場した。
選択肢は、利用可能な機能、使いやすさ、ドキュメント、コミュニティサポートなどの要因に依存する。
特定のNNフレームワークを採用した後、パフォーマンスが低下したり、要件が進化したり、新機能が導入されたりすると、組織はその後、別のものに切り替える選択をするかもしれない。
残念なことに、NN実装をライブラリ間で移行するのは、特にNNに適した移行アプローチが欠如しているため、難しい。
古い実装に頼らず、新しい機能との互換性を確保するためには、手動で更新する必要がある。
本稿では,ディープラーニングフレームワーク間でニューラルネットワークコードを自動移行する手法を提案する。
本手法では, 移行前にNNの抽象化を作成するために, ピボットNNモデルを用いる。
PyTorchとTensorFlowという2つの一般的なNNフレームワークを使って、このアプローチを検証する。
また、この2つのフレームワーク間のコード移行の課題と、どのようにアプローチされたかについても論じる。
5つのNNを実験的に評価した結果,提案手法はコードの移行に成功し,元のNNと機能的に等価なNNを生成することができた。
私たちの作品のアーティファクトはオンラインで入手可能です。
関連論文リスト
- NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFを導入し、非常に大きなニューラルネットワークによって学習された表現と計算の科学的研究を可能にする。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - Scaling Model Checking for DNN Analysis via State-Space Reduction and
Input Segmentation (Extended Version) [12.272381003294026]
既存のフレームワークは、トレーニングされたNNに対して堅牢性と/または安全性を保証する。
我々は、広範囲のNNプロパティを分析するための最初のモデルチェックベースのフレームワークであるFANNetを提案した。
本研究は,形式的NN解析のスケーラビリティとタイミング効率を向上させるために,状態空間の削減と入力セグメント化手法を開発する。
論文 参考訳(メタデータ) (2023-06-29T22:18:07Z) - Backward Reachability Analysis of Neural Feedback Loops: Techniques for
Linear and Nonlinear Systems [59.57462129637796]
本稿では,ニューラルネットワークを用いた閉ループシステムの安全性検証のための後方到達性アプローチを提案する。
フィードバックループにおけるNNの存在は、その活性化関数の非線形性や、NNモデルは一般に可逆的ではないため、ユニークな問題セットを示す。
フィードフォワードNNで表される制御ポリシを持つ線形系と非線形系のBP過近似を計算するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:17:28Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - Self-adaptive deep neural network: Numerical approximation to functions
and PDEs [3.6525914200522656]
与えられたタスクに対して最適なディープニューラルネットワークを設計するための自己適応アルゴリズムを提案する。
ANE法は、フォームトレイン、推定、拡張のループとして記述される。
ANE法は, 急激な遷移層を示す関数を学習するために, ほぼ最小限のNNを自動設計できることを実証した。
論文 参考訳(メタデータ) (2021-09-07T03:16:57Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Automatic Cross-Domain Transfer Learning for Linear Regression [0.0]
本稿では,線形回帰問題に対する伝達学習能力の拡張を支援する。
通常のデータセットでは、移行学習に潜伏したドメイン情報が利用できると仮定する。
論文 参考訳(メタデータ) (2020-05-08T15:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。