論文の概要: ONNX-Net: Towards Universal Representations and Instant Performance Prediction for Neural Architectures
- arxiv url: http://arxiv.org/abs/2510.04938v1
- Date: Mon, 06 Oct 2025 15:43:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.953165
- Title: ONNX-Net: Towards Universal Representations and Instant Performance Prediction for Neural Architectures
- Title(参考訳): ONNX-Net: ニューラルネットワークの普遍表現とインスタントパフォーマンス予測を目指して
- Authors: Shiwen Qin, Alexander Auras, Shay B. Cohen, Elliot J. Crowley, Michael Moeller, Linus Ericsson, Jovita Lukasik,
- Abstract要約: ONNX-Benchは、ONNXファイルに基づいた統一形式のニューラルネットワークの集合からなるベンチマークである。
ONNX-Netは、パフォーマンス予測器への入力として機能する自然言語記述を使用して、任意のニューラルネットワークを表す。
実験では,少数の事前学習サンプルのみを用いて,異なる探索空間をまたいだゼロショット性能を示す。
- 参考スコア(独自算出の注目度): 60.14199724905456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural architecture search (NAS) automates the design process of high-performing architectures, but remains bottlenecked by expensive performance evaluation. Most existing studies that achieve faster evaluation are mostly tied to cell-based search spaces and graph encodings tailored to those individual search spaces, limiting their flexibility and scalability when applied to more expressive search spaces. In this work, we aim to close the gap of individual search space restrictions and search space dependent network representations. We present ONNX-Bench, a benchmark consisting of a collection of neural networks in a unified format based on ONNX files. ONNX-Bench includes all open-source NAS-bench-based neural networks, resulting in a total size of more than 600k {architecture, accuracy} pairs. This benchmark allows creating a shared neural network representation, ONNX-Net, able to represent any neural architecture using natural language descriptions acting as an input to a performance predictor. This text-based encoding can accommodate arbitrary layer types, operation parameters, and heterogeneous topologies, enabling a single surrogate to generalise across all neural architectures rather than being confined to cell-based search spaces. Experiments show strong zero-shot performance across disparate search spaces using only a small amount of pretraining samples, enabling the unprecedented ability to evaluate any neural network architecture instantly.
- Abstract(参考訳): ニューラルアーキテクチャサーチ(NAS)は高性能アーキテクチャの設計プロセスを自動化するが、高価な性能評価によってボトルネックが残る。
より高速な評価を実現する既存の研究は、主にセルベースの検索空間と、それらの個々の検索空間に適したグラフエンコーディングに結びついており、より表現力のある検索空間に適用した場合の柔軟性とスケーラビリティを制限している。
本研究では,個々の検索空間制限と検索空間依存ネットワーク表現のギャップを埋めることを目的としている。
我々は、ONNXファイルに基づいた統一形式でニューラルネットワークの集合からなるベンチマークであるONNX-Benchを提案する。
ONNX-Benchには、すべてのオープンソースNASベンチベースのニューラルネットワークが含まれている。
このベンチマークでは、パフォーマンス予測器への入力として機能する自然言語記述を使用して、任意のニューラルネットワークアーキテクチャを表現可能な、共有ニューラルネットワーク表現(ONNX-Net)の作成が可能になる。
このテキストベースの符号化は任意の層タイプ、操作パラメータ、異種トポロジに対応可能であり、セルベースの検索空間に制限されるのではなく、単一のサロゲートがすべてのニューラルネットワークアーキテクチャをまたいで一般化することができる。
実験では、少数の事前トレーニングサンプルのみを使用して、異なる検索空間にわたって強力なゼロショット性能を示し、任意のニューラルネットワークアーキテクチャを即座に評価する前例のない機能を実現する。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - A General-Purpose Transferable Predictor for Neural Architecture Search [22.883809911265445]
本稿では,探索空間を横断的に移動可能なニューラルネットワーク探索(NAS)のための汎用ニューラルネットワーク予測器を提案する。
NAS-Bench-101, 201, 301の実験結果から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-02-21T17:28:05Z) - GENNAPE: Towards Generalized Neural Architecture Performance Estimators [25.877126553261434]
GENNAPEは、与えられたニューラルネットワークを、原子操作の計算グラフ(CG)として表現する。
最初に、トポロジ的特徴によるネットワーク分離を促進するために、Contrastive Learningを介してグラフエンコーダを学習する。
実験により、NAS-Bench-101で事前訓練されたGENNAPEは、5つの異なる公開ニューラルネットワークベンチマークに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2022-11-30T18:27:41Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - NAS-Bench-NLP: Neural Architecture Search Benchmark for Natural Language
Processing [12.02718579660613]
我々は自然言語処理(NLP)の中核である言語モデリングタスクを活用することで、コンピュータビジョン領域の外部へ踏み出す。
テキストデータセット上にリカレントニューラルネットワークの検索スペースを提供し、その内部に14kのアーキテクチャをトレーニングしました。
我々は,意味的関連性および言語理解評価のためのデータセットを用いて,訓練されたモデルの内在的および外在的評価を行った。
論文 参考訳(メタデータ) (2020-06-12T12:19:06Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。