論文の概要: Multi-task Optimization Based Co-training for Electricity Consumption
Prediction
- arxiv url: http://arxiv.org/abs/2205.15663v1
- Date: Tue, 31 May 2022 10:06:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-01 13:25:13.757739
- Title: Multi-task Optimization Based Co-training for Electricity Consumption
Prediction
- Title(参考訳): 消費電力予測のためのマルチタスク最適化に基づくコトレーニング
- Authors: Hui Song, A. K. Qin and Chenggang Yan
- Abstract要約: オーストラリアの5州の電力消費データを使って、2つのタスクを異なるスケールで設計する。
オーストラリアの5州の電力消費データを用いて、異なるスケールで2つのタスクを設計する。a) 各州(5つのタスク)の1ステップ前予測、b)6ステップ、12ステップ、18ステップ、24ステップ前予測(20タスク)。
MTO-CTの性能はこれらの2つのタスクのそれぞれを個別に解くのと比較して評価する。
- 参考スコア(独自算出の注目度): 29.58665757139825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world electricity consumption prediction may involve different tasks,
e.g., prediction for different time steps ahead or different geo-locations.
These tasks are often solved independently without utilizing some common
problem-solving knowledge that could be extracted and shared among these tasks
to augment the performance of solving each task. In this work, we propose a
multi-task optimization (MTO) based co-training (MTO-CT) framework, where the
models for solving different tasks are co-trained via an MTO paradigm in which
solving each task may benefit from the knowledge gained from when solving some
other tasks to help its solving process. MTO-CT leverages long short-term
memory (LSTM) based model as the predictor where the knowledge is represented
via connection weights and biases. In MTO-CT, an inter-task knowledge transfer
module is designed to transfer knowledge between different tasks, where the
most helpful source tasks are selected by using the probability matching and
stochastic universal selection, and evolutionary operations like mutation and
crossover are performed for reusing the knowledge from selected source tasks in
a target task. We use electricity consumption data from five states in
Australia to design two sets of tasks at different scales: a) one-step ahead
prediction for each state (five tasks) and b) 6-step, 12-step, 18-step, and
24-step ahead prediction for each state (20 tasks). The performance of MTO-CT
is evaluated on solving each of these two sets of tasks in comparison to
solving each task in the set independently without knowledge sharing under the
same settings, which demonstrates the superiority of MTO-CT in terms of
prediction accuracy.
- Abstract(参考訳): 実世界の電力消費予測は、例えば、異なる時間ステップの予測や異なる位置情報の予測など、異なるタスクを含むことがある。
これらのタスクは、それらのタスクから抽出して共有できる共通の問題解決知識を使わずに、独立して解決されることが多い。
本研究では,MTO(Multi-task Optimization)に基づく協調学習(MTO-CT)フレームワークを提案する。
MTO-CTは、長い短期記憶(LSTM)ベースのモデルを、接続重みとバイアスによって知識が表現される予測器として利用する。
MTO-CTでは、タスク間の知識伝達モジュールを設計し、確率マッチングと確率的普遍選択を用いて最も有用なソースタスクを選択し、ターゲットタスクにおいて選択されたソースタスクから知識を再利用するための突然変異やクロスオーバーのような進化操作を行う。
オーストラリアの5州の電力消費データを使って、2つのタスクを異なるスケールで設計します。
a) 各状態(5つのタスク)の1段階先行予測と
b)各状態に対する6ステップ、12ステップ、18ステップ、24ステップの予測(20タスク)。
MTO-CTの性能は、同じ設定下で知識を共有することなく、各タスクを個別に解決することと比較して、これらの2つのタスクのそれぞれを解く上で評価し、予測精度の観点から、MTO-CTの優位性を示す。
関連論文リスト
- PEMT: Multi-Task Correlation Guided Mixture-of-Experts Enables Parameter-Efficient Transfer Learning [28.353530290015794]
マルチタスク変換学習に基づくパラメータ効率の高いファインチューニングフレームワークPEMTを提案する。
我々は17のデータセットにまたがる幅広いタスクについて実験を行う。
論文 参考訳(メタデータ) (2024-02-23T03:59:18Z) - Towards Multi-Objective High-Dimensional Feature Selection via
Evolutionary Multitasking [63.91518180604101]
本稿では,高次元特徴選択問題,すなわちMO-FSEMTのための新しいEMTフレームワークを開発する。
タスク固有の知識伝達機構は、各タスクの利点情報を活用するように設計され、高品質なソリューションの発見と効果的な伝達を可能にする。
論文 参考訳(メタデータ) (2024-01-03T06:34:39Z) - JiuZhang 2.0: A Unified Chinese Pre-trained Language Model for
Multi-task Mathematical Problem Solving [77.51817534090789]
マルチタスク数学問題の解法を専門とする統一中国語 PLM である textbfJiuZhang2.0 を提案する。
我々の考えは、中規模のモデルを維持し、マルチタスク設定におけるモデル容量を改善するために、Emphcross-taskの知識共有を利用することである。
論文 参考訳(メタデータ) (2023-06-19T15:45:36Z) - Mod-Squad: Designing Mixture of Experts As Modular Multi-Task Learners [74.92558307689265]
専門家グループ("スクワッド")にモジュール化された新しいモデルであるMod-Squadを提案する。
単一モデルのトレーニング中に、このマッチングプロセスを最適化する。
13の視覚タスクを持つタスクノミーデータセットと、5つの視覚タスクを持つPASCAL-Contextデータセットの実験は、我々のアプローチの優位性を示している。
論文 参考訳(メタデータ) (2022-12-15T18:59:52Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Self-adaptive Multi-task Particle Swarm Optimization [24.72438489328286]
我々は,知識伝達適応戦略,焦点探索戦略,知識導入戦略を通じて,自己適応型マルチタスク粒子群最適化(SaMTPSO)を開発した。
SaMTPSOの結果は3つのEMTOアルゴリズムとパーティクルスウォームアルゴリズムを比較しており、SaMTPSOの優位性を示している。
論文 参考訳(メタデータ) (2021-10-09T06:45:15Z) - On-edge Multi-task Transfer Learning: Model and Practice with
Data-driven Task Allocation [20.20889051697198]
マルチタスク・トランスファー・ラーニング(MTL)におけるタスク・アロケーションは,NP完全Knapsack問題の変種であることを示す。
我々は,データ駆動型協調作業割当(DCTA)アプローチを提案し,高い計算効率でTATIMを解く。
我々のDCTAは処理時間の3.24倍を削減し、TATIMを解く際の最先端技術と比較して48.4%の省エネを図っている。
論文 参考訳(メタデータ) (2021-07-06T08:24:25Z) - Exploring Relational Context for Multi-Task Dense Prediction [76.86090370115]
我々は,共通バックボーンと独立タスク固有のヘッドで表される,密集予測タスクのためのマルチタスク環境を考える。
マルチタスク設定では,グローバルやローカルなど,さまざまな注意に基づくコンテキストを探索する。
タスクペアごとに利用可能なすべてのコンテキストのプールをサンプリングするAdaptive Task-Relational Contextモジュールを提案する。
論文 参考訳(メタデータ) (2021-04-28T16:45:56Z) - Controllable Pareto Multi-Task Learning [55.945680594691076]
マルチタスク学習システムは,複数のタスクを同時に解決することを目的としている。
固定されたモデルキャパシティでは、タスクは互いに衝突し、システムは通常、それらすべてを学ぶためにトレードオフをしなければならない。
本研究では,異なるタスク間のリアルタイムなトレードオフ制御を実現するための,新しい制御可能なマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T11:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。