論文の概要: ResBuilder: Automated Learning of Depth with Residual Structures
- arxiv url: http://arxiv.org/abs/2308.08504v1
- Date: Wed, 16 Aug 2023 16:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 12:23:48.366361
- Title: ResBuilder: Automated Learning of Depth with Residual Structures
- Title(参考訳): ResBuilder: 残留構造を持つ深さの自動学習
- Authors: Julian Burghoff, Matthias Rottmann, Jill von Conta, Sebastian
Schoenen, Andreas Witte, Hanno Gottschalk
- Abstract要約: Resbuilderと呼ばれるニューラルネットワーク検索アルゴリズムを開発し、ResNetアーキテクチャをゼロから開発する。
Resbuilderは、市販のResNetと比較して計算コストを削減しつつ、最先端のパフォーマンスに近いパフォーマンスを実現している。
本研究では,本手法の既定パラメータを,プロプライエタリな不正検出データセットに適用することにより,産業応用にも応用できることを実証する。
- 参考スコア(独自算出の注目度): 5.172964916120902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we develop a neural architecture search algorithm, termed
Resbuilder, that develops ResNet architectures from scratch that achieve high
accuracy at moderate computational cost. It can also be used to modify existing
architectures and has the capability to remove and insert ResNet blocks, in
this way searching for suitable architectures in the space of ResNet
architectures. In our experiments on different image classification datasets,
Resbuilder achieves close to state-of-the-art performance while saving
computational cost compared to off-the-shelf ResNets. Noteworthy, we once tune
the parameters on CIFAR10 which yields a suitable default choice for all other
datasets. We demonstrate that this property generalizes even to industrial
applications by applying our method with default parameters on a proprietary
fraud detection dataset.
- Abstract(参考訳): 本研究では,resbuilderと呼ばれるニューラルネットワーク探索アルゴリズムを開発した。resnetアーキテクチャをスクラッチから開発し,適度な計算コストで高い精度を実現する。
既存のアーキテクチャの変更にも使用可能で、resnetブロックを削除して挿入する機能を備えている。
画像分類データセットの異なる実験において、Resbuilderは、市販のResNetと比較して計算コストを削減しつつ、最先端の性能に近い性能を達成する。
注目すべきは、パラメータをCIFAR10にチューニングすることで、他のすべてのデータセットに対して適切なデフォルト選択が得られます。
本手法は,プロプライエタリな不正検出データセットにデフォルトパラメータを適用することで,産業アプリケーションにおいても一般化できることを実証する。
関連論文リスト
- Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Building Optimal Neural Architectures using Interpretable Knowledge [15.66288233048004]
AutoBuildは、オペレーションとアーキテクチャモジュールの潜伏した埋め込みと、それらが現れるアーキテクチャの地味なパフォーマンスを整合させるスキームである。
比較的少数の評価済みアーキテクチャをマイニングすることで、AutoBuildは高品質なアーキテクチャを直接構築するか、あるいは検索スペースを減らして関連分野に集中できることを示す。
論文 参考訳(メタデータ) (2024-03-20T04:18:38Z) - FlowNAS: Neural Architecture Search for Optical Flow Estimation [65.44079917247369]
本研究では,フロー推定タスクにおいて,より優れたエンコーダアーキテクチャを自動で見つけるために,FlowNASというニューラルアーキテクチャ探索手法を提案する。
実験の結果、スーパーネットワークから受け継いだ重み付きアーキテクチャは、KITTI上で4.67%のF1-allエラーを達成していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T09:05:25Z) - De-IReps: Searching for improved Re-parameterizing Architecture based on
Differentiable Evolution Strategy [5.495046508448319]
ほぼすべての再パラメータ化操作をカバーする検索空間を設計する。
この検索空間では、マルチパスネットワークは無条件で単一パスネットワークにパラメータ化できる。
検索したアーキテクチャの特徴を視覚化し、このアーキテクチャの外観について説明する。
論文 参考訳(メタデータ) (2022-04-13T14:07:20Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Network Graph Based Neural Architecture Search [57.78724765340237]
我々は、対応するグラフを書き換えてニューラルネットワークを探索し、グラフ特性によるアーキテクチャ性能の予測を行う。
グラフ空間全体にわたって機械学習を行わないため、探索プロセスは極めて効率的である。
論文 参考訳(メタデータ) (2021-12-15T00:12:03Z) - Rethinking Architecture Selection in Differentiable NAS [74.61723678821049]
微分可能なニューラルアーキテクチャ探索は、その探索効率と簡易性において最も人気のあるNAS手法の1つである。
本稿では,各操作がスーパーネットに与える影響を直接測定する摂動に基づくアーキテクチャ選択を提案する。
提案手法により,DARTSの故障モードを大幅に緩和できることがわかった。
論文 参考訳(メタデータ) (2021-08-10T00:53:39Z) - Neighborhood-Aware Neural Architecture Search [43.87465987957761]
探索空間におけるフラットミニマアーキテクチャを同定するニューラルアーキテクチャ探索(NAS)手法を提案する。
我々の定式化は、アーキテクチャの「平坦性」を考慮に入れ、このアーキテクチャの近傍における性能を集約する。
本論文では, 地域別ランダム検索 (NA-RS) と地域別差別化アーキテクチャ検索 (NA-DARTS) を提案する。
論文 参考訳(メタデータ) (2021-05-13T15:56:52Z) - Operation Embeddings for Neural Architecture Search [15.033712726016255]
最適化プロセスにおいて、固定演算子エンコーディングを学習可能な表現に置き換えることを提案する。
本手法は,同様の操作とグラフパターンを共有するトップパフォーマンスアーキテクチャを生成する。
論文 参考訳(メタデータ) (2021-05-11T09:17:10Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。