論文の概要: MIDAS: Mosaic Input-Specific Differentiable Architecture Search
- arxiv url: http://arxiv.org/abs/2602.17700v1
- Date: Fri, 06 Feb 2026 23:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.542531
- Title: MIDAS: Mosaic Input-Specific Differentiable Architecture Search
- Title(参考訳): MIDAS: Mosaic Input-Specific Differentiable Architecture Search
- Authors: Konstanty Subbotko,
- Abstract要約: MIDASは、静的アーキテクチャパラメータを動的で入力固有のパラメータに置き換え、DARTSを近代化する新しいアプローチである。
DARTS,NAS-Bench-201,RDARTS検索空間上でMIDASを評価する。
- 参考スコア(独自算出の注目度): 1.6921396880325779
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differentiable Neural Architecture Search (NAS) provides efficient, gradient-based methods for automatically designing neural networks, yet its adoption remains limited in practice. We present MIDAS, a novel approach that modernizes DARTS by replacing static architecture parameters with dynamic, input-specific parameters computed via self-attention. To improve robustness, MIDAS (i) localizes the architecture selection by computing it separately for each spatial patch of the activation map, and (ii) introduces a parameter-free, topology-aware search space that models node connectivity and simplifies selecting the two incoming edges per node. We evaluate MIDAS on the DARTS, NAS-Bench-201, and RDARTS search spaces. In DARTS, it reaches 97.42% top-1 on CIFAR-10 and 83.38% on CIFAR-100. In NAS-Bench-201, it consistently finds globally optimal architectures. In RDARTS, it sets the state of the art on two of four search spaces on CIFAR-10. We further analyze why MIDAS works, showing that patchwise attention improves discrimination among candidate operations, and the resulting input-specific parameter distributions are class-aware and predominantly unimodal, providing reliable guidance for decoding.
- Abstract(参考訳): 微分可能なニューラルネットワーク探索(NAS)は、ニューラルネットワークを自動設計するための効率的で勾配に基づく手法を提供するが、実際には採用が限られている。
静的なアーキテクチャパラメータを動的に入力固有のパラメータに置き換えることで、DARTSを近代化する新しいアプローチであるMIDASを提案する。
堅牢性を改善するため、MIDAS
(i)アクティベーションマップの各空間パッチに対して個別に計算することで、アーキテクチャ選択をローカライズし、
(ii) ノード接続をモデル化し,ノード毎の2つのエッジの選択を簡略化する,パラメータフリーなトポロジ対応検索空間を導入する。
DARTS,NAS-Bench-201,RDARTS検索空間上でMIDASを評価する。
DARTSでは、CIFAR-10で97.42%、CIFAR-100で83.38%に達する。
NAS-Bench-201では、グローバルな最適アーキテクチャが一貫して見つかる。
RDARTSでは、CIFAR-10上の4つの検索空間のうち2つに最先端を設定できる。
さらに、MIDASが機能する理由を分析し、パッチワイズ・アテンションが候補操作の識別を改善することを示し、結果の入力固有パラメータ分布はクラス認識であり、主に非モーダルであり、復号のための信頼性の高いガイダンスを提供する。
関連論文リスト
- ZeroLM: Data-Free Transformer Architecture Search for Language Models [54.83882149157548]
現在の自動プロキシ発見アプローチは、検索時間の拡張、データの過度なオーバーフィットへの感受性、構造的な複雑さに悩まされている。
本稿では,効率的な重み統計によるモデルキャパシティの定量化を目的とした,新しいゼロコストプロキシ手法を提案する。
本評価は,FlexiBERT ベンチマークで Spearman's rho 0.76 と Kendall's tau 0.53 を達成し,このアプローチの優位性を示すものである。
論文 参考訳(メタデータ) (2025-03-24T13:11:22Z) - Architecture-Aware Minimization (A$^2$M): How to Find Flat Minima in Neural Architecture Search [3.724847012963521]
微分可能なNAS法でよく用いられるニューラルアーキテクチャ空間の幾何学的性質について検討する。
これらの知見に基づいて,新しい解析的アルゴリズムフレームワークであるArchitecture-Aware Minimization (A$2$M)を提案する。
A$2$Mは、ベンチマークデータセット上の最先端のDARTSベースのアルゴリズムの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2025-03-13T14:30:17Z) - Flexible Channel Dimensions for Differentiable Architecture Search [50.33956216274694]
本稿では,効率的な動的チャネル割当アルゴリズムを用いた新しい微分可能なニューラルアーキテクチャ探索法を提案する。
提案するフレームワークは,タスク精度と推論遅延において,従来の手法と等価なDNNアーキテクチャを見つけることができることを示す。
論文 参考訳(メタデータ) (2023-06-13T15:21:38Z) - BaLeNAS: Differentiable Architecture Search via the Bayesian Learning
Rule [95.56873042777316]
近年,微分可能なアーキテクチャ探索 (DARTS) が注目されている。
本稿では,アーキテクチャ重みをガウス分布に緩和することにより,ニューラルネットワーク探索を分布学習問題として定式化する。
ベイズ主義の原理から異なるNASがいかに恩恵を受け、探索を強化し、安定性を向上するかを実証する。
論文 参考訳(メタデータ) (2021-11-25T18:13:42Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - Fine-Grained Stochastic Architecture Search [6.277767522867666]
Fine-Grained Architecture Search (FiGS) は、より大きな候補アーキテクチャの集合を探索する微分可能な検索手法である。
FiGSは、構造化スパース正規化ペナルティを適用して、検索空間内の演算子を同時に選択・変更する。
既存の3つの検索空間にまたがって結果を示し、元の検索アルゴリズムのマッチングや性能を向上する。
論文 参考訳(メタデータ) (2020-06-17T01:04:14Z) - ADWPNAS: Architecture-Driven Weight Prediction for Neural Architecture
Search [6.458169480971417]
ニューラルアーキテクチャ探索(NAS)のためのアーキテクチャ駆動重み予測(ADWP)手法を提案する。
提案手法では,まずアーキテクチャ集約型検索空間を設計し,次にアーキテクチャパラメータをエンコードすることでハイパーネットワークワークを訓練する。
結果は、CIFAR-10上で1つの探索手順を4.0GPU時間で完了することを示す。
論文 参考訳(メタデータ) (2020-03-03T05:06:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。