論文の概要: On the performance of deep learning for numerical optimization: an
application to protein structure prediction
- arxiv url: http://arxiv.org/abs/2012.09741v1
- Date: Thu, 17 Dec 2020 17:01:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 08:26:37.512270
- Title: On the performance of deep learning for numerical optimization: an
application to protein structure prediction
- Title(参考訳): 数値最適化のためのディープラーニングの性能について:タンパク質構造予測への応用
- Authors: Hojjat Rakhshani, Lhassane Idoumghar, Soheila Ghambari, Julien
Lepagnot, Mathieu Br\'evilliers
- Abstract要約: 本稿では,グローバルな最適化問題に対処するディープラーニングモデルの性能について述べる。
提案手法は、効率的なニューラルネットワークを生成するために、NAS(Neural Architecture Search)の概念を採用する。
実験により、手書きのアルゴリズムと比較して、生成された学習モデルが競合する結果が得られることが明らかになった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks have recently drawn considerable attention to build and
evaluate artificial learning models for perceptual tasks. Here, we present a
study on the performance of the deep learning models to deal with global
optimization problems. The proposed approach adopts the idea of the neural
architecture search (NAS) to generate efficient neural networks for solving the
problem at hand. The space of network architectures is represented using a
directed acyclic graph and the goal is to find the best architecture to
optimize the objective function for a new, previously unknown task. Different
from proposing very large networks with GPU computational burden and long
training time, we focus on searching for lightweight implementations to find
the best architecture. The performance of NAS is first analyzed through
empirical experiments on CEC 2017 benchmark suite. Thereafter, it is applied to
a set of protein structure prediction (PSP) problems. The experiments reveal
that the generated learning models can achieve competitive results when
compared to hand-designed algorithms; given enough computational budget
- Abstract(参考訳): 深層ニューラルネットワークは最近、知覚タスクのための人工知能モデルの構築と評価にかなりの注意を払っている。
本稿では,グローバル最適化問題に対処するためのディープラーニングモデルの性能について検討する。
提案手法は,ニューラルネットワークを効率的に生成して解決するニューラルネットワーク探索(neural architecture search, nas)の考え方を採用している。
ネットワークアーキテクチャの空間は有向非循環グラフを用いて表現され、新しい未知のタスクの目的関数を最適化する最良のアーキテクチャを見つけることを目的としている。
GPU計算負荷と長いトレーニング時間を備えた非常に大きなネットワークの提案とは異なり、私たちは、最高のアーキテクチャを見つけるための軽量な実装を探すことに重点を置いています。
NASの性能は、最初にCEC 2017ベンチマークスイートで実証実験によって分析される。
その後、一連のタンパク質構造予測(psp)問題に適用される。
実験の結果,手作業で設計したアルゴリズムと比較して,生成した学習モデルは競争力のある結果が得られることがわかった。
関連論文リスト
- DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Efficient Neural Architecture Search with Performance Prediction [0.0]
ニューラルアーキテクチャ検索を使用して、目前にあるタスクに最適なネットワークアーキテクチャを見つけます。
既存のNASアルゴリズムは、スクラッチから完全にトレーニングすることで、新しいアーキテクチャの適合性を評価する。
サンプルアーキテクチャの評価を高速化するために,エンドツーエンドのオフライン性能予測器を提案する。
論文 参考訳(メタデータ) (2021-08-04T05:44:16Z) - Differentiable Neural Architecture Learning for Efficient Neural Network
Design [31.23038136038325]
スケールド・シグモイド関数に基づく新しいemphアーキテクチャのパラメータ化を提案する。
そこで本論文では,候補ニューラルネットワークを評価することなく,ニューラルネットワークを最適化するための汎用的エファイブルニューラルネットワーク学習(DNAL)手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T02:03:08Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Sampled Training and Node Inheritance for Fast Evolutionary Neural
Architecture Search [22.483917379706725]
進化的ニューラルアーキテクチャサーチ(ENAS)は、進化的アルゴリズムの魅力的なグローバル最適化能力のために注目を集めている。
本稿では,学習データの各ミニバッチに対して,両親がランダムにサンプルを採取し,訓練する,有向非循環グラフに基づく高速ENASのための新しいフレームワークを提案する。
提案アルゴリズムは,26の最先端のピアアルゴリズムと比較して,広く使用されているデータセット上で評価する。
論文 参考訳(メタデータ) (2020-03-07T12:33:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。