論文の概要: Fine-Tuning DARTS for Image Classification
- arxiv url: http://arxiv.org/abs/2006.09042v1
- Date: Tue, 16 Jun 2020 10:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 18:42:47.591984
- Title: Fine-Tuning DARTS for Image Classification
- Title(参考訳): 画像分類のための微調整DART
- Authors: Muhammad Suhaib Tanveer, Muhammad Umar Karim Khan, Chong-Min Kyung
- Abstract要約: 本稿では,これらの近似とは無関係な固定演算を用いた微分アーキテクチャ探索(DARTS)を提案する。
提案手法では,Fashion-MNIST,CompCars,MIO-TCDデータセットのトップ1の精度をそれぞれ0.56%,0.50%,0.39%向上させる。
- 参考スコア(独自算出の注目度): 9.642625267699488
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Architecture Search (NAS) has gained attraction due to superior
classification performance. Differential Architecture Search (DARTS) is a
computationally light method. To limit computational resources DARTS makes
numerous approximations. These approximations result in inferior performance.
We propose to fine-tune DARTS using fixed operations as they are independent of
these approximations. Our method offers a good trade-off between the number of
parameters and classification accuracy. Our approach improves the top-1
accuracy on Fashion-MNIST, CompCars, and MIO-TCD datasets by 0.56%, 0.50%, and
0.39%, respectively compared to the state-of-the-art approaches. Our approach
performs better than DARTS, improving the accuracy by 0.28%, 1.64%, 0.34%,
4.5%, and 3.27% compared to DARTS, on CIFAR-10, CIFAR-100, Fashion-MNIST,
CompCars, and MIO-TCD datasets, respectively.
- Abstract(参考訳): neural architecture search (nas) は分類性能が優れているため、注目を集めている。
Differential Architecture Search (DARTS) は計算学的に軽量な手法である。
計算資源を制限するため、DARTSは多数の近似を行う。
これらの近似は性能が劣る。
本稿では,これらの近似から独立して固定演算を用いたDARTSの微調整を提案する。
本手法は,パラメータ数と分類精度の良好なトレードオフを提供する。
提案手法では,Fashion-MNIST,CompCars,MIO-TCDデータセットのTop-1精度を,最先端のアプローチと比較して0.56%,0.50%,0.39%向上させる。
CIFAR-10, CIFAR-100, Fashion-MNIST, CompCars, MIO-TCDデータセットでは, DARTSに比べて精度が0.28%, 1.64%, 0.34%, 4.5%, 3.27%向上した。
関連論文リスト
- Foundation Models for Structural Health Monitoring [17.37816294594306]
本稿では,トランスフォーマーニューラルネットワークをMasked Auto-Encoderアーキテクチャを用いて,構造的健康モニタリングのための基礎モデルとして初めて利用することを提案する。
自己教師付き事前学習を通じて、複数の大規模データセットから一般化可能な表現を学習する能力を実証する。
本研究は,3つの運用用インダクトのデータを用いた基礎モデルの有効性を示す。
論文 参考訳(メタデータ) (2024-04-03T13:32:44Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Differentiable Architecture Search with Random Features [80.31916993541513]
微分可能なアーキテクチャサーチ (DARTS) は、探索効率と効率性からNAS技術の発展を著しく促進してきたが、性能の低下に悩まされている。
本稿では,BatchNormのトレーニングのみによるDARTSの性能崩壊問題を軽減するための取り組みを行う。
論文 参考訳(メタデータ) (2022-08-18T13:55:27Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - MSR-DARTS: Minimum Stable Rank of Differentiable Architecture Search [45.09936304802425]
ニューラルアーキテクチャサーチ(NAS)において、微分可能なアーキテクチャサーチ(DARTS)が最近注目されている。
本稿では,最小安定ランクDARTS (MSR-DARTS) と呼ばれる手法を提案する。
MSR-DARTSは、CIFAR-10で0.3GPU日間で2.54%、ImageNetで23.9%のエラー率を達成した。
論文 参考訳(メタデータ) (2020-09-19T11:03:39Z) - DrNAS: Dirichlet Neural Architecture Search [88.56953713817545]
ディリクレ分布をモデルとした連続緩和型混合重みをランダム変数として扱う。
最近開発されたパスワイズ微分により、ディリクレパラメータは勾配に基づく一般化で容易に最適化できる。
微分可能なNASの大きなメモリ消費を軽減するために, 単純かつ効果的な進行学習方式を提案する。
論文 参考訳(メタデータ) (2020-06-18T08:23:02Z) - ADAHESSIAN: An Adaptive Second Order Optimizer for Machine Learning [91.13797346047984]
本稿では,2次最適化アルゴリズムであるADAHESSIANを紹介する。
ADAHESSIANは、他の適応最適化手法と比較して、新しい最先端の成果を大きなマージンで達成することを示す。
論文 参考訳(メタデータ) (2020-06-01T05:00:51Z) - DADA: Differentiable Automatic Data Augmentation [58.560309490774976]
コストを大幅に削減する微分可能自動データ拡張(DADA)を提案する。
CIFAR-10, CIFAR-100, SVHN, ImageNetのデータセットについて広範な実験を行った。
その結果,DADAは最先端技術よりも1桁以上高速であり,精度は極めて高いことがわかった。
論文 参考訳(メタデータ) (2020-03-08T13:23:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。