論文の概要: Towards Searching Efficient and Accurate Neural Network Architectures in
Binary Classification Problems
- arxiv url: http://arxiv.org/abs/2101.06511v1
- Date: Sat, 16 Jan 2021 20:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 04:36:43.964865
- Title: Towards Searching Efficient and Accurate Neural Network Architectures in
Binary Classification Problems
- Title(参考訳): 二項分類問題における効率的かつ正確なニューラルネットワークアーキテクチャの探索に向けて
- Authors: Yigit Alparslan, Ethan Jacob Moyer, Isamu Mclean Isozaki, Daniel
Schwartz, Adam Dunlop, Shesh Dave, Edward Kim
- Abstract要約: 本研究では,異なる探索アルゴリズムを調査し,最も精度の高いニューラルネットワークのアーキテクチャサイズを求めることで,選択プロセスを最適化する。
非常に明確に定義されたバイナリ分類ネットワーク検索空間でバイナリ検索を適用し、結果を線形検索と比較します。
我々は,二項探索法をデータセットに適用した場合,ナイーブ線形探索よりも100倍長い実行時間の改善を報告した。
- 参考スコア(独自算出の注目度): 4.3871352596331255
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In recent years, deep neural networks have had great success in machine
learning and pattern recognition. Architecture size for a neural network
contributes significantly to the success of any neural network. In this study,
we optimize the selection process by investigating different search algorithms
to find a neural network architecture size that yields the highest accuracy. We
apply binary search on a very well-defined binary classification network search
space and compare the results to those of linear search. We also propose how to
relax some of the assumptions regarding the dataset so that our solution can be
generalized to any binary classification problem. We report a 100-fold running
time improvement over the naive linear search when we apply the binary search
method to our datasets in order to find the best architecture candidate. By
finding the optimal architecture size for any binary classification problem
quickly, we hope that our research contributes to discovering intelligent
algorithms for optimizing architecture size selection in machine learning.
- Abstract(参考訳): 近年、ディープニューラルネットワークは機械学習やパターン認識において大きな成功を収めている。
ニューラルネットワークのアーキテクチャサイズは、任意のニューラルネットワークの成功に大きく寄与します。
本研究では,異なる探索アルゴリズムを調査し,最も精度の高いニューラルネットワークのアーキテクチャサイズを求めることで,選択プロセスを最適化する。
我々は,非常によく定義された二分分類ネットワーク検索空間に二分探索を適用し,線形探索の結果と比較する。
また、データセットに関する仮定の一部を緩和して、我々のソリューションを任意のバイナリ分類問題に一般化する方法を提案する。
本稿では, 線形探索よりも100倍の時間的改善を, 最適なアーキテクチャ候補を見つけるために, バイナリ探索法をデータセットに適用する場合に報告する。
任意のバイナリ分類問題に対して最適なアーキテクチャサイズを求めることで、機械学習におけるアーキテクチャサイズ選択を最適化するためのインテリジェントなアルゴリズムの発見に寄与することを期待する。
関連論文リスト
- OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Neural networks with linear threshold activations: structure and
algorithms [1.795561427808824]
クラス内で表現可能な関数を表現するのに、2つの隠れたレイヤが必要であることを示す。
また、クラス内の任意の関数を表すのに必要なニューラルネットワークのサイズについて、正確な境界を与える。
我々は,線形しきい値ネットワークと呼ばれるニューラルネットワークの新たなクラスを提案する。
論文 参考訳(メタデータ) (2021-11-15T22:33:52Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Evaluating Online and Offline Accuracy Traversal Algorithms for
k-Complete Neural Network Architectures [6.123324869194195]
本稿では,バイナリ分類のためのコンパクトニューラルネットワークアーキテクチャについて検討する。
過完全なアーキテクチャ候補を好む場合、スピードと精度の向上を調査します。
論文 参考訳(メタデータ) (2021-01-16T20:37:29Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - Disentangling Neural Architectures and Weights: A Case Study in
Supervised Classification [8.976788958300766]
本研究は、神経構造とそのエッジウェイトの役割を解消する問題について考察する。
十分に訓練されたアーキテクチャでは、重み付けのリンク固有の微調整は不要である。
我々は、ハードアーキテクチャ探索問題を実現可能な最適化問題に変換する、新しい計算効率のよい手法を用いる。
論文 参考訳(メタデータ) (2020-09-11T11:22:22Z) - VINNAS: Variational Inference-based Neural Network Architecture Search [2.685668802278155]
スパース畳み込みニューラルネットワークを探索するための可変変分推論に基づくNAS法を提案する。
提案手法は,非ゼロパラメータの約2倍の精度で最先端の精度を示しながら,多様なネットワークセルを探索する。
論文 参考訳(メタデータ) (2020-07-12T21:47:35Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。