論文の概要: Unsupervised Knowledge Adaptation for Passenger Demand Forecasting
- arxiv url: http://arxiv.org/abs/2206.04053v1
- Date: Wed, 8 Jun 2022 11:03:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 13:37:59.778764
- Title: Unsupervised Knowledge Adaptation for Passenger Demand Forecasting
- Title(参考訳): 需要予測のための教師なし知識適応
- Authors: Can Li, Lei Bai, Wei Liu, Lina Yao, S Travis Waller
- Abstract要約: マルチモーダル予測モデルは精度を向上させることができるが、複数のマルチモーダルデータセットの異なる部分が異なる機関によって所有されている場合、実用的でない。
本研究では,他モードのデータに基づく事前学習モデルを用いて,対象モードの需要を予測するための教師なし知識適応需要予測フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.356096302298056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Considering the multimodal nature of transport systems and potential
cross-modal correlations, there is a growing trend of enhancing demand
forecasting accuracy by learning from multimodal data. These multimodal
forecasting models can improve accuracy but be less practical when different
parts of multimodal datasets are owned by different institutions who cannot
directly share data among them. While various institutions may can not share
their data with each other directly, they may share forecasting models trained
by their data, where such models cannot be used to identify the exact
information from their datasets. This study proposes an Unsupervised Knowledge
Adaptation Demand Forecasting framework to forecast the demand of the target
mode by utilizing a pre-trained model based on data of another mode, which does
not require direct data sharing of the source mode. The proposed framework
utilizes the potential shared patterns among multiple transport modes to
improve forecasting performance while avoiding the direct sharing of data among
different institutions. Specifically, a pre-trained forecasting model is first
learned based on the data of a source mode, which can capture and memorize the
source travel patterns. Then, the demand data of the target dataset is encoded
into an individual knowledge part and a sharing knowledge part which will
extract travel patterns by individual extraction network and sharing extraction
network, respectively. The unsupervised knowledge adaptation strategy is
utilized to form the sharing features for further forecasting by making the
pre-trained network and the sharing extraction network analogous. Our findings
illustrate that unsupervised knowledge adaptation by sharing the pre-trained
model to the target mode can improve the forecasting performance without the
dependence on direct data sharing.
- Abstract(参考訳): 輸送システムのマルチモーダル性と潜在的クロスモーダル相関を考えると、マルチモーダルデータから学習することで需要予測精度を向上させる傾向が強まっている。
これらのマルチモーダル予測モデルは、データを直接共有できない異なる機関によって所有されているマルチモーダルデータセットの異なる部分によって、精度は向上するが、実用性は低い。
さまざまな機関が直接データを共有できない場合もありますが、データセットから正確な情報を特定できないような、データによってトレーニングされた予測モデルを共有する場合もあります。
本研究では,ソースモードの直接データ共有を必要としない他モードのデータに基づく事前学習モデルを用いて,目標モードの需要を予測するための教師なし知識適応需要予測フレームワークを提案する。
提案手法では,複数のトランスポートモード間の潜在的共有パターンを利用して予測性能を向上し,異なる機関間でのデータ直接共有を回避している。
具体的には、事前学習された予測モデルは、まずソースモードのデータに基づいて学習され、ソースの移動パターンをキャプチャして記憶することができる。
そして、対象データセットの需要データを個別の知識部と共有知識部とに符号化し、個別の抽出ネットワークと共有抽出ネットワークによってそれぞれ旅行パターンを抽出する。
教師なし知識適応戦略を用いて、事前学習されたネットワークと共有抽出ネットワークを類似させて、さらなる予測のための共有機能を形成する。
本研究は,事前学習モデルと目標モードの共有による教師なし知識適応が,直接データ共有に依存せずに予測性能を向上させることを示す。
関連論文リスト
- Personalized Federated Learning with Mixture of Models for Adaptive Prediction and Model Fine-Tuning [22.705411388403036]
本稿では,新しい個人化フェデレーション学習アルゴリズムを提案する。
各クライアントは、局所的に微調整されたモデルと複数のフェデレートされたモデルを組み合わせることでパーソナライズされたモデルを構築する。
実データセットに関する理論的解析と実験は、このアプローチの有効性を裏付けるものである。
論文 参考訳(メタデータ) (2024-10-28T21:20:51Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Distributed Personalized Empirical Risk Minimization [19.087524494290676]
本稿では、異種データからの学習を容易にするために、新たなパラダイムであるPersonalized Empirical Risk Minimization(PERM)を提案する。
本稿では,標準モデル平均化をモデルシャッフルに置き換えた分散アルゴリズムを提案し,すべてのデバイスに対してPERM目標を同時に最適化する。
論文 参考訳(メタデータ) (2023-10-26T20:07:33Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - SUMMIT: Source-Free Adaptation of Uni-Modal Models to Multi-Modal
Targets [30.262094419776208]
現在のアプローチでは、ソースデータが適応中に利用可能であり、ソースはペア化されたマルチモーダルデータで構成されていると仮定している。
本稿では,2つの相補的な擬似ラベル融合法を自動選択するスイッチングフレームワークを提案する。
提案手法は,mIoUが競合するベースラインよりも最大12%向上することを示す。
論文 参考訳(メタデータ) (2023-08-23T02:57:58Z) - Uncertainty-guided Source-free Domain Adaptation [77.3844160723014]
ソースフリードメイン適応(SFDA)は、事前訓練されたソースモデルのみを使用することで、未ラベルのターゲットデータセットに分類器を適応させることを目的としている。
本稿では、ソースモデル予測の不確実性を定量化し、ターゲット適応の導出に利用することを提案する。
論文 参考訳(メタデータ) (2022-08-16T08:03:30Z) - Quality Not Quantity: On the Interaction between Dataset Design and
Robustness of CLIP [43.7219097444333]
ここでは,CLIPにおける事前学習分布がロバスト性をいかに引き起こすかを調べるために,公開されている6つのデータソースのテストベッドを紹介する。
その結果,事前学習データの性能は分布変化によって大きく異なることがわかった。
複数のソースを組み合わせることで、必ずしもより良いモデルが得られるのではなく、最高の個々のデータソースのロバスト性を希薄にする。
論文 参考訳(メタデータ) (2022-08-10T18:24:23Z) - An Empirical Study on Distribution Shift Robustness From the Perspective
of Pre-Training and Data Augmentation [91.62129090006745]
本稿では,事前学習とデータ拡張の観点から分布シフト問題を考察する。
我々は,事前学習とデータ拡張に焦点を当てた,最初の総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2022-05-25T13:04:53Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Sharing Models or Coresets: A Study based on Membership Inference Attack [17.562474629669513]
分散機械学習は、すべてのデータを集中した場所に集めることなく、分散データに基づいてグローバルモデルをトレーニングすることを目的としている。
ローカルモデル(フェデレーション学習)の収集と集約、代表データ要約(コアセット)の収集とトレーニングの2つのアプローチが提案されている。
本実験は,各アプローチの精度・プライバシ・コストのトレードオフを定量化し,モデルトレーニングプロセスの設計の指針となる非自明な比較を明らかにする。
論文 参考訳(メタデータ) (2020-07-06T18:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。