論文の概要: Differentiable NAS Framework and Application to Ads CTR Prediction
- arxiv url: http://arxiv.org/abs/2110.14812v1
- Date: Mon, 25 Oct 2021 05:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 14:52:14.835316
- Title: Differentiable NAS Framework and Application to Ads CTR Prediction
- Title(参考訳): 微分可能なNASフレームワークと広告CTR予測への応用
- Authors: Ravi Krishna, Aravind Kalaiah, Bichen Wu, Maxim Naumov, Dheevatsa
Mudigere, Misha Smelyanskiy, Kurt Keutzer
- Abstract要約: 我々は、微分可能なニューラルネットワーク探索(DNAS)のための推論およびモジュラーフレームワークを実装している。
DNASを広告クリックスルー率(CTR)予測の問題に適用する。
我々は、CTR予測のための深層学習勧告モデル(DLRM)のバックボーンに新しい検索空間を開発し、調整し、Criteo Kaggle CTR予測データセットの最先端結果を報告する。
- 参考スコア(独自算出の注目度): 30.74403362212425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS) methods aim to automatically find the
optimal deep neural network (DNN) architecture as measured by a given objective
function, typically some combination of task accuracy and inference efficiency.
For many areas, such as computer vision and natural language processing, this
is a critical, yet still time consuming process. New NAS methods have recently
made progress in improving the efficiency of this process. We implement an
extensible and modular framework for Differentiable Neural Architecture Search
(DNAS) to help solve this problem. We include an overview of the major
components of our codebase and how they interact, as well as a section on
implementing extensions to it (including a sample), in order to help users
adopt our framework for their applications across different categories of deep
learning models. To assess the capabilities of our methodology and
implementation, we apply DNAS to the problem of ads click-through rate (CTR)
prediction, arguably the highest-value and most worked on AI problem at
hyperscalers today. We develop and tailor novel search spaces to a Deep
Learning Recommendation Model (DLRM) backbone for CTR prediction, and report
state-of-the-art results on the Criteo Kaggle CTR prediction dataset.
- Abstract(参考訳): neural architecture search(nas)メソッドは、与えられた目的関数によって測定される最適なディープニューラルネットワーク(dnn)アーキテクチャを自動的に見つけることを目的としている。
コンピュータビジョンや自然言語処理など、多くの分野において、これは重要な、しかしまだ時間がかかるプロセスである。
新しいnas手法は、最近、このプロセスの効率を改善する進歩を遂げた。
我々は、この問題を解決するために、差別化可能なニューラルネットワーク探索(DNAS)のために拡張可能でモジュラーなフレームワークを実装します。
私たちは、コードベースの主要なコンポーネントの概要とそれらの相互作用、および、その拡張の実装に関するセクション(サンプルを含む)を含み、ユーザがディープラーニングモデルのさまざまなカテゴリのアプリケーションで、私たちのフレームワークを採用するのを支援します。
私たちの方法論と実装の能力を評価するために、我々はdnaを広告クリックスルー率(ctr)予測の問題に適用します。
我々は、CTR予測のための深層学習勧告モデル(DLRM)のバックボーンに新しい検索空間を開発し、調整し、Criteo Kaggle CTR予測データセットの最先端結果を報告する。
関連論文リスト
- DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - Neural Architecture Search for Speech Emotion Recognition [72.1966266171951]
本稿では,SERモデルの自動構成にニューラルアーキテクチャサーチ(NAS)技術を適用することを提案する。
NASはモデルパラメータサイズを維持しながらSER性能(54.89%から56.28%)を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-03-31T10:16:10Z) - Neural Architecture Search for Dense Prediction Tasks in Computer Vision [74.9839082859151]
ディープラーニングは、ニューラルネットワークアーキテクチャエンジニアリングに対する需要の高まりにつながっている。
ニューラルネットワーク検索(NAS)は、手動ではなく、データ駆動方式でニューラルネットワークアーキテクチャを自動設計することを目的としている。
NASはコンピュータビジョンの幅広い問題に適用されている。
論文 参考訳(メタデータ) (2022-02-15T08:06:50Z) - Evolutionary Neural Architecture Search Supporting Approximate
Multipliers [0.5414308305392761]
進化的畳み込みニューラルネットワーク(CNN)のためのカルト的遺伝的プログラミングに基づく多目的NAS法を提案する。
最も適切な近似乗算器は、近似乗算器のライブラリから自動的に選択される。
進化したCNNは、CIFAR-10ベンチマーク問題に類似した複雑さを持つ一般的な人間によるCNNと比較される。
論文 参考訳(メタデータ) (2021-01-28T09:26:03Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - NAS-Bench-NLP: Neural Architecture Search Benchmark for Natural Language
Processing [12.02718579660613]
我々は自然言語処理(NLP)の中核である言語モデリングタスクを活用することで、コンピュータビジョン領域の外部へ踏み出す。
テキストデータセット上にリカレントニューラルネットワークの検索スペースを提供し、その内部に14kのアーキテクチャをトレーニングしました。
我々は,意味的関連性および言語理解評価のためのデータセットを用いて,訓練されたモデルの内在的および外在的評価を行った。
論文 参考訳(メタデータ) (2020-06-12T12:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。