論文の概要: Improving Deep Learning For Airbnb Search
- arxiv url: http://arxiv.org/abs/2002.05515v1
- Date: Mon, 10 Feb 2020 18:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:09:21.433752
- Title: Improving Deep Learning For Airbnb Search
- Title(参考訳): airbnb検索のディープラーニングの改善
- Authors: Malay Haldar, Mustafa Abdool, Prashant Ramanathan, Tyler Sax, Lanbo
Zhang, Aamir Mansawala, Shulin Yang, Bradley Turnbull, Junshuo Liao
- Abstract要約: ディープラーニングの検索ランク付けへの応用は、Airbnbで最も影響力のあるプロダクト改善のひとつだ。
Aはアーキテクチャ、Bはバイアス、Cはコールドスタートです。
- 参考スコア(独自算出の注目度): 5.479655981061806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The application of deep learning to search ranking was one of the most
impactful product improvements at Airbnb. But what comes next after you launch
a deep learning model? In this paper we describe the journey beyond, discussing
what we refer to as the ABCs of improving search: A for architecture, B for
bias and C for cold start. For architecture, we describe a new ranking neural
network, focusing on the process that evolved our existing DNN beyond a fully
connected two layer network. On handling positional bias in ranking, we
describe a novel approach that led to one of the most significant improvements
in tackling inventory that the DNN historically found challenging. To solve
cold start, we describe our perspective on the problem and changes we made to
improve the treatment of new listings on the platform. We hope ranking teams
transitioning to deep learning will find this a practical case study of how to
iterate on DNNs.
- Abstract(参考訳): ディープラーニングの検索ランク付けへの応用は、Airbnbで最も影響力のあるプロダクト改善のひとつだ。
しかし、ディープラーニングモデルを立ち上げるとどうなるのか?
本稿では,検索改善のabcs,アーキテクチャのa,バイアスのb,コールドスタートのcについて論じた。
アーキテクチャでは、完全に接続された2層ネットワークを超えて、既存のDNNを進化させるプロセスに焦点を当てた、新たなランキングニューラルネットワークについて説明する。
ランキングにおける位置バイアスの扱いについて,dnnが歴史的に困難と感じた在庫の扱いにおいて,最も重要な改善の1つを導いた新しいアプローチについて述べる。
コールドスタートを解決するために、プラットフォーム上での新しいリスティングの扱いを改善するために行った問題と変更について、我々の視点を述べる。
私たちは、ディープラーニングに移行するチームが、DNNの反復方法の実践的なケーススタディを見つけることを望んでいます。
関連論文リスト
- Efficient Automation of Neural Network Design: A Survey on
Differentiable Neural Architecture Search [70.31239620427526]
微分可能なニューラルネットワーク探索(DNAS)は、ディープニューラルネットワークアーキテクチャの発見を自動化するトレンドのアプローチとして、急速に自らを強制した。
この増加は主に、最初の主要なDNAS法の一つであるDARTSの人気が原因である。
本総説では,DNASに特に焦点をあて,最近のアプローチを概観する。
論文 参考訳(メタデータ) (2023-04-11T13:15:29Z) - A Survey of Deep Learning: From Activations to Transformers [3.175481425273993]
ディープラーニングにおける最も重要で最近の研究の概要を包括的に紹介する。
この10年で成功したイノベーションの多くの主要な戦略をまとめたパターンを特定し、議論します。
また,OpenAI の GPT-4 や Google の PaLM 2.0 など,最近開発されたクローズドソースモデルについても議論する。
論文 参考訳(メタデータ) (2023-02-01T19:34:55Z) - Improving the sample-efficiency of neural architecture search with
reinforcement learning [0.0]
この作業では、Automated Machine Learning(AutoML)の領域にコントリビュートしたいと思っています。
我々の焦点は、最も有望な研究方向の一つ、強化学習である。
児童ネットワークの検証精度は、コントローラを訓練するための報奨信号として機能する。
我々は、これをより現代的で複雑なアルゴリズムであるPPOに修正することを提案する。
論文 参考訳(メタデータ) (2021-10-13T14:30:09Z) - Training Spiking Neural Networks Using Lessons From Deep Learning [28.827506468167652]
シナプスとニューロンの内部構造は、ディープラーニングの未来を垣間見ることができます。
いくつかのアイデアはニューロモルフィックエンジニアリングコミュニティでよく受け入れられ、一般的に使われているが、他のアイデアはここで初めて提示または正当化されている。
PythonパッケージであるsnnTorchを使って、この論文を補完する一連のインタラクティブチュートリアルも利用可能である。
論文 参考訳(メタデータ) (2021-09-27T09:28:04Z) - A Design Space Study for LISTA and Beyond [79.76740811464597]
近年では、反復アルゴリズムの展開による問題固有のディープネットワーク構築に大きな成功を収めている。
本稿では,深層ネットワークにおける設計アプローチとしてのアンローリングの役割について再考する。
スパースリカバリのためのlistaを代表例として,未ロールモデルに対する設計空間調査を初めて実施した。
論文 参考訳(メタデータ) (2021-04-08T23:01:52Z) - What Do Deep Nets Learn? Class-wise Patterns Revealed in the Input Space [88.37185513453758]
本研究では,深層ニューラルネットワーク(DNN)が学習するクラスワイズな知識を,異なる環境下で可視化し,理解する手法を提案する。
本手法は,各クラスのモデルが学習した知識を表現するために,画素空間内の1つの予測パターンを探索する。
逆境環境では、逆境に訓練されたモデルはより単純化された形状パターンを学ぶ傾向がある。
論文 参考訳(メタデータ) (2021-01-18T06:38:41Z) - ASTRAL: Adversarial Trained LSTM-CNN for Named Entity Recognition [16.43239147870092]
本稿では,モデル構造とトレーニングプロセスの両方から,現在のNER法を改善するためのLSTM-CNN(ASTRAL)システムを提案する。
提案システムは,CoNLL-03,OntoNotes 5.0,WNUT-17の3つのベンチマークで評価し,最先端の結果を得た。
論文 参考訳(メタデータ) (2020-09-02T13:15:25Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。