論文の概要: Synthetic Petri Dish: A Novel Surrogate Model for Rapid Architecture
Search
- arxiv url: http://arxiv.org/abs/2005.13092v1
- Date: Wed, 27 May 2020 00:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:12:05.502810
- Title: Synthetic Petri Dish: A Novel Surrogate Model for Rapid Architecture
Search
- Title(参考訳): Synthetic Petri Dish: 高速アーキテクチャ検索のための新しいサロゲートモデル
- Authors: Aditya Rawal, Joel Lehman, Felipe Petroski Such, Jeff Clune, Kenneth
O. Stanley
- Abstract要約: 本稿では,建築モチーフを評価するための合成ペトリディッシュモデルを提案する。
合成ペトリディッシュでは、非常に小さなネットワークでアーキテクチャモチーフがインスタンス化され、非常に少ない学習された合成データサンプルを用いて評価される。
我々の望みは、この研究によって、モデル抽出されたコンポーネントのパフォーマンスを、代替的な制御環境で研究する新たな方向性がもたらされることである。
- 参考スコア(独自算出の注目度): 20.22618280590004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) explores a large space of architectural
motifs -- a compute-intensive process that often involves ground-truth
evaluation of each motif by instantiating it within a large network, and
training and evaluating the network with thousands of domain-specific data
samples. Inspired by how biological motifs such as cells are sometimes
extracted from their natural environment and studied in an artificial Petri
dish setting, this paper proposes the Synthetic Petri Dish model for evaluating
architectural motifs. In the Synthetic Petri Dish, architectural motifs are
instantiated in very small networks and evaluated using very few learned
synthetic data samples (to effectively approximate performance in the full
problem). The relative performance of motifs in the Synthetic Petri Dish can
substitute for their ground-truth performance, thus accelerating the most
expensive step of NAS. Unlike other neural network-based prediction models that
parse the structure of the motif to estimate its performance, the Synthetic
Petri Dish predicts motif performance by training the actual motif in an
artificial setting, thus deriving predictions from its true intrinsic
properties. Experiments in this paper demonstrate that the Synthetic Petri Dish
can therefore predict the performance of new motifs with significantly higher
accuracy, especially when insufficient ground truth data is available. Our hope
is that this work can inspire a new research direction in studying the
performance of extracted components of models in an alternative controlled
setting.
- Abstract(参考訳): neural architecture search (nas)は、アーキテクチャモチーフの大きな空間を探索する -- 計算集約的なプロセスであり、大きなネットワーク内でインスタンス化することで各モチーフの地上的評価を行い、数千のドメイン固有のデータサンプルでネットワークをトレーニングし、評価する。
本稿では, 自然環境から細胞などの生物学的モチーフを抽出し, 人工ペトリ料理設定において研究する方法について, 建築モチーフを評価するための合成ペトリディッシュモデルを提案する。
合成ペトリディッシュ(Synthetic Petri Dish)では、アーキテクチャモチーフは、非常に小さなネットワークでインスタンス化され、非常に少ない学習された合成データサンプルを用いて評価される。
合成ペトリ皿におけるモチーフの相対的なパフォーマンスは、その地味なパフォーマンスに代えて、nasの最も高価なステップを加速することができる。
モチーフの構造を解析してその性能を推定する他のニューラルネットワークベースの予測モデルとは異なり、合成ペトリ皿は、実際のモチーフを人工的な環境で訓練することでモチーフ性能を予測する。
そこで本研究では,合成ペトリ皿を用いた実験により,新しいモチーフの性能を極めて高い精度で予測できることを示す。
我々の望みは、この研究によって、モデル抽出されたコンポーネントの性能を代替的な制御環境で研究する新たな方向性がもたらされることである。
関連論文リスト
- The Extrapolation Power of Implicit Models [2.3526338188342653]
暗黙のモデルは、アウト・オブ・ディストリビューション、地理的、時間的シフトといった様々な外挿シナリオでテストに投入される。
我々の実験は暗黙のモデルで常に大きな性能上の優位性を証明している。
論文 参考訳(メタデータ) (2024-07-19T16:01:37Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - A Hierarchical Architecture for Neural Materials [13.144139872006287]
我々は新しいレベルの精度を提供するニューラルな外観モデルを導入する。
インセプションベースのコアネットワーク構造は、複数のスケールで素材の外観をキャプチャする。
入力を周波数空間にエンコードし、勾配に基づく損失を導入し、学習フェーズの進行に適応させる。
論文 参考訳(メタデータ) (2023-07-19T17:00:45Z) - Homological Neural Networks: A Sparse Architecture for Multivariate
Complexity [0.0]
我々は,基礎となるデータのホモロジー構造上に構築された,疎密な高階グラフィカルアーキテクチャを特徴とする,新しいディープニューラルネットワークユニットを開発する。
その結果、この新しい設計の利点は、ごく少数のパラメータだけで最先端の機械学習モデルとディープラーニングモデルの結果を結び付けるか、克服することができる。
論文 参考訳(メタデータ) (2023-06-27T09:46:16Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - SPATE-GAN: Improved Generative Modeling of Dynamic Spatio-Temporal
Patterns with an Autoregressive Embedding Loss [4.504870356809408]
本稿では、時間的ダイナミクスの学習を強化するために、自己回帰埋め込みに基づく-GANと組み合わせた新しい損失目標を提案する。
組込み損失は -GAN のアーキテクチャを変更することなく性能を向上し,自己相関構造に対するモデルの能力向上を浮き彫りにしている。
論文 参考訳(メタデータ) (2021-09-30T12:10:05Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Synthetic Data and Hierarchical Object Detection in Overhead Imagery [0.0]
衛星画像における低・ゼロサンプル学習を向上させるための新しい合成データ生成および拡張技術を開発した。
合成画像の有効性を検証するために,検出モデルと2段階モデルの訓練を行い,実際の衛星画像上で得られたモデルを評価する。
論文 参考訳(メタデータ) (2021-01-29T22:52:47Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。