論文の概要: Younger: The First Dataset for Artificial Intelligence-Generated Neural Network Architecture
- arxiv url: http://arxiv.org/abs/2406.15132v1
- Date: Thu, 20 Jun 2024 03:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 13:32:37.617081
- Title: Younger: The First Dataset for Artificial Intelligence-Generated Neural Network Architecture
- Title(参考訳): Younger: 人工知能生成ニューラルネットワークアーキテクチャのための最初のデータセット
- Authors: Zhengxin Yang, Wanling Gao, Luzhou Peng, Yunyou Huang, Fei Tang, Jianfeng Zhan,
- Abstract要約: Youngerは、グラフニューラルネットワークの開発を前進させる先駆的なデータセットである。
自動アーキテクチャ生成におけるYoungerの可能性と有効性について検討した。
データセットとコードを公開して、参入障壁を低くし、この困難な領域におけるさらなる研究を奨励します。
- 参考スコア(独自算出の注目度): 4.822061442244712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing and optimizing neural network architectures typically requires extensive expertise, starting with handcrafted designs and then manual or automated refinement. This dependency presents a significant barrier to rapid innovation. Recognizing the complexity of automatically generating neural network architecture from scratch, we introduce Younger, a pioneering dataset to advance this ambitious goal. Derived from over 174K real-world models across more than 30 tasks from various public model hubs, Younger includes 7,629 unique architectures, and each is represented as a directed acyclic graph with detailed operator-level information. The dataset facilitates two primary design paradigms: global, for creating complete architectures from scratch, and local, for detailed architecture component refinement. By establishing these capabilities, Younger contributes to a new frontier, Artificial Intelligence-Generated Neural Network Architecture (AIGNNA). Our experiments explore the potential and effectiveness of Younger for automated architecture generation and, as a secondary benefit, demonstrate that Younger can serve as a benchmark dataset, advancing the development of graph neural networks. We release the dataset and code publicly to lower the entry barriers and encourage further research in this challenging area.
- Abstract(参考訳): ニューラルネットワークアーキテクチャの設計と最適化には,手作業による設計から手作業や自動修正に至るまで,広範な専門知識が必要となるのが一般的だ。
この依存関係は、急速なイノベーションに重大な障壁をもたらします。
ニューラルネットワークアーキテクチャをスクラッチから自動生成する複雑性を認識し、この野心的な目標を達成するための先駆的なデータセットであるYoungerを紹介します。
様々なパブリックモデルハブから30以上のタスクにまたがる174K以上の実世界モデルから派生したYoungerは、7,629のユニークなアーキテクチャを備えており、それぞれが詳細な演算子レベルの情報を持つ有向非巡回グラフとして表現されている。
データセットは、スクラッチから完全なアーキテクチャを作成するためのグローバルな設計パラダイムと、詳細なアーキテクチャコンポーネントの洗練のためのローカルという、2つの主要な設計パラダイムを促進する。
これらの能力を確立することで、Youngerは新しいフロンティアであるAIGNNA(Artificial Intelligence-Generated Neural Network Architecture)に貢献する。
我々の実験は、自動アーキテクチャ生成におけるYoungerの可能性と有効性について検討し、二次的な利点として、Youngerがベンチマークデータセットとして機能し、グラフニューラルネットワークの開発を進展させることを実証する。
データセットとコードを公開して、参入障壁を低くし、この困難な領域におけるさらなる研究を奨励します。
関連論文リスト
- Unsupervised Graph Neural Architecture Search with Disentangled
Self-supervision [51.88848982611515]
教師なしグラフニューラルアーキテクチャサーチは、文献では未発見のままである。
本稿では,Distangled Self-supervised Graph Neural Architecture Searchモデルを提案する。
我々のモデルは、教師なしの方法で、いくつかのベースライン手法に対して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-03-08T05:23:55Z) - Neural Markov Prolog [57.13568543360899]
本稿では,一階述語論理とニューラルネットワーク設計を橋渡しする手段として,言語Neural Markov Prolog (NMP)を提案する。
NMPは、画像、テキスト、リレーショナルデータベース、その他のターゲットデータ型のアーキテクチャを簡単に生成および提示することができる。
論文 参考訳(メタデータ) (2023-11-27T21:41:47Z) - Neural Architecture Retrieval [27.063268631346713]
我々は、クエリニューラルアーキテクチャに似た設計で既存のニューラルアーキテクチャの集合を検索するニューラルアーキテクチャ検索という新しい問題を定義する。
既存のグラフ事前学習戦略は、グラフのサイズとモチーフのため、ニューラルネットワークの計算グラフに対処できない。
正確なグラフ表現学習を実現するために,マルチレベルコントラスト学習を導入する。
論文 参考訳(メタデータ) (2023-07-16T01:56:41Z) - Homological Neural Networks: A Sparse Architecture for Multivariate
Complexity [0.0]
我々は,基礎となるデータのホモロジー構造上に構築された,疎密な高階グラフィカルアーキテクチャを特徴とする,新しいディープニューラルネットワークユニットを開発する。
その結果、この新しい設計の利点は、ごく少数のパラメータだけで最先端の機械学習モデルとディープラーニングモデルの結果を結び付けるか、克服することができる。
論文 参考訳(メタデータ) (2023-06-27T09:46:16Z) - GENNAPE: Towards Generalized Neural Architecture Performance Estimators [25.877126553261434]
GENNAPEは、与えられたニューラルネットワークを、原子操作の計算グラフ(CG)として表現する。
最初に、トポロジ的特徴によるネットワーク分離を促進するために、Contrastive Learningを介してグラフエンコーダを学習する。
実験により、NAS-Bench-101で事前訓練されたGENNAPEは、5つの異なる公開ニューラルネットワークベンチマークに優れた転送性が得られることが示された。
論文 参考訳(メタデータ) (2022-11-30T18:27:41Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Network Graph Based Neural Architecture Search [57.78724765340237]
我々は、対応するグラフを書き換えてニューラルネットワークを探索し、グラフ特性によるアーキテクチャ性能の予測を行う。
グラフ空間全体にわたって機械学習を行わないため、探索プロセスは極めて効率的である。
論文 参考訳(メタデータ) (2021-12-15T00:12:03Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Towards Automated Neural Interaction Discovery for Click-Through Rate
Prediction [64.03526633651218]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最も重要な機械学習タスクの1つである。
本稿では,AutoCTR と呼ばれる CTR 予測のための自動インタラクションアーキテクチャ探索フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T04:33:01Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。