論文の概要: Gated Ensemble of Spatio-temporal Mixture of Experts for Multi-task
Learning in Ride-hailing System
- arxiv url: http://arxiv.org/abs/2012.15408v2
- Date: Tue, 5 Jan 2021 05:35:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 17:05:02.267368
- Title: Gated Ensemble of Spatio-temporal Mixture of Experts for Multi-task
Learning in Ride-hailing System
- Title(参考訳): 配車システムにおけるマルチタスク学習エキスパートの時空間混合のゲーテッドアンサンブル
- Authors: M. H. Rahman, S. M. Rifaat, S. N. Sadeek, M. Abrar, D. Wang
- Abstract要約: 本研究では,マルチタスク学習アーキテクチャを提案する。
私たちのアーキテクチャのモデルは、シングルタスクとマルチタスクのベンチマークとベンチマークとディープラーニングアルゴリズムを上回った。
- 参考スコア(独自算出の注目度): 0.41998444721319217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing spatio-temporal forecasting models separately in a task-wise and
city-wise manner pose a burden for the expanding transportation network
companies. Therefore, a multi-task learning architecture is proposed in this
study by developing gated ensemble of spatio-temporal mixture of experts
network (GESME-Net) with convolutional recurrent neural network (CRNN),
convolutional neural network (CNN), and recurrent neural network (RNN) for
simultaneously forecasting spatio-temporal tasks in a city as well as across
different cities. Furthermore, an input agnostic feature weighting layer is
integrated with the architecture for learning joint representation in
multi-task learning and revealing the contribution of the input features
utilized in prediction. The proposed architecture is tested with data from Didi
Chuxing for: (i) simultaneously forecasting demand and supply-demand gap in
Beijing, and (ii) simultaneously forecasting demand across Chengdu and Xian. In
both scenarios, models from our proposed architecture outperformed the
single-task and multi-task deep learning benchmarks and ensemble-based machine
learning algorithms.
- Abstract(参考訳): 時空間予測モデルの設計は、業務的にも都市的にも個別に行うことが、拡大する交通ネットワーク企業にとって重荷となる。
そこで本研究では,各都市における時空間タスクを同時に予測するための,専門家ネットワーク(GESME-Net)と畳み込みリカレントニューラルネットワーク(CRNN),畳み込みニューラルネット(CNN),およびリカレントニューラルネットワーク(RNN)を併用した,時空間混在のゲートアンサンブルを開発することにより,マルチタスク学習アーキテクチャを提案する。
さらに、入力非依存特徴重み付け層をマルチタスク学習における共同表現学習アーキテクチャに統合し、予測に使用する入力特徴の寄与を明らかにする。
i)北京の需要と需給ギャップを同時に予測し、(ii)成都と西安の需要を同時に予測する。
どちらのシナリオにおいても、提案するアーキテクチャのモデルは、シングルタスクとマルチタスクのディープラーニングベンチマークとアンサンブルベースの機械学習アルゴリズムよりも優れています。
関連論文リスト
- OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Split-Et-Impera: A Framework for the Design of Distributed Deep Learning
Applications [8.434224141580758]
Split-Et-Imperaは、ディープネットワークの解釈可能性の原則に基づいて、ニューラルネットワークのベストスプリットポイントのセットを決定する。
異なるニューラルネットワーク再構成の迅速な評価のための通信認識シミュレーションを実行する。
これは、アプリケーションのサービス要件の品質と、正確性とレイテンシ時間の観点からのパフォーマンスのベストマッチを示唆している。
論文 参考訳(メタデータ) (2023-03-22T13:00:00Z) - DQNAS: Neural Architecture Search using Reinforcement Learning [6.33280703577189]
畳み込みニューラルネットワークは様々な画像関連アプリケーションで使われている。
本稿では,強化学習の原則を取り入れた,ニューラルネットワークの自動探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-17T04:01:47Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Distributed Learning for Time-varying Networks: A Scalable Design [13.657740129012804]
本稿では,スケーラブルなディープニューラルネットワーク(DNN)設計に基づく分散学習フレームワークを提案する。
学習タスクの置換等価性と不変性を利用することで、異なるスケールのクライアントに対して異なるスケールのDNNを構築することができる。
モデルアグリゲーションはこれらの2つのサブマトリクスに基づいて行うことができ、学習の収束と性能を改善することができる。
論文 参考訳(メタデータ) (2021-07-31T12:44:28Z) - Connections between Numerical Algorithms for PDEs and Neural Networks [8.660429288575369]
偏微分方程式(PDE)とニューラルネットワークの数値アルゴリズム間の多数の構造的関係について検討する。
私たちのゴールは、豊富な数学的基礎をPDEの世界からニューラルネットワークに移すことです。
論文 参考訳(メタデータ) (2021-07-30T16:42:45Z) - Automated Search for Resource-Efficient Branched Multi-Task Networks [81.48051635183916]
我々は,多タスクニューラルネットワークにおける分岐構造を自動的に定義する,微分可能なニューラルネットワーク探索に根ざした原理的アプローチを提案する。
本手法は,限られた資源予算内で高い性能の分岐構造を見いだすことができる。
論文 参考訳(メタデータ) (2020-08-24T09:49:19Z) - Deep Multi-Task Learning for Cooperative NOMA: System Design and
Principles [52.79089414630366]
我々は,近年のディープラーニング(DL)の進歩を反映した,新しいディープ・コラボレーティブなNOMAスキームを開発する。
我々は,システム全体を包括的に最適化できるように,新しいハイブリッドカスケードディープニューラルネットワーク(DNN)アーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-07-27T12:38:37Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Error-feedback stochastic modeling strategy for time series forecasting
with convolutional neural networks [11.162185201961174]
本稿では,ランダム畳み込みネットワーク(ESM-CNN)ニューラル時系列予測タスクを構築するための新しいError-feedback Modeling (ESM)戦略を提案する。
提案したESM-CNNは、最先端のランダムニューラルネットワークを上回るだけでなく、トレーニングされた最先端のディープニューラルネットワークモデルと比較して、予測能力と計算オーバーヘッドの低減も実現している。
論文 参考訳(メタデータ) (2020-02-03T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。