論文の概要: Continual Learning for Multivariate Time Series Tasks with Variable
Input Dimensions
- arxiv url: http://arxiv.org/abs/2203.06852v1
- Date: Mon, 14 Mar 2022 04:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 16:53:08.677082
- Title: Continual Learning for Multivariate Time Series Tasks with Variable
Input Dimensions
- Title(参考訳): 可変入力次元をもつ多変量時系列タスクの連続学習
- Authors: Vibhor Gupta, Jyoti Narwariya, Pankaj Malhotra, Lovekesh Vig, Gautam
Shroff
- Abstract要約: このような環境で生じる2つの未調査の実践的課題に焦点をあてる。
タスクレベルで観測されると、タスクからデータを保存または再アクセスすることは許されません。
本稿では,標準的なリカレントニューラルネットワークを支援するために,グラフニューラルネットワークに基づく新しいコンディショニングモジュールを提案する。
- 参考スコア(独自算出の注目度): 20.788813485815698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a sequence of related multivariate time series learning tasks,
such as predicting failures for different instances of a machine from time
series of multi-sensor data, or activity recognition tasks over different
individuals from multiple wearable sensors. We focus on two under-explored
practical challenges arising in such settings: (i) Each task may have a
different subset of sensors, i.e., providing different partial observations of
the underlying 'system'. This restriction can be due to different manufacturers
in the former case, and people wearing more or less measurement devices in the
latter (ii) We are not allowed to store or re-access data from a task once it
has been observed at the task level. This may be due to privacy considerations
in the case of people, or legal restrictions placed by machine owners.
Nevertheless, we would like to (a) improve performance on subsequent tasks
using experience from completed tasks as well as (b) continue to perform better
on past tasks, e.g., update the model and improve predictions on even the first
machine after learning from subsequently observed ones. We note that existing
continual learning methods do not take into account variability in input
dimensions arising due to different subsets of sensors being available across
tasks, and struggle to adapt to such variable input dimensions (VID) tasks. In
this work, we address this shortcoming of existing methods. To this end, we
learn task-specific generative models and classifiers, and use these to augment
data for target tasks. Since the input dimensions across tasks vary, we propose
a novel conditioning module based on graph neural networks to aid a standard
recurrent neural network. We evaluate the efficacy of the proposed approach on
three publicly available datasets corresponding to two activity recognition
tasks (classification) and one prognostics task (regression).
- Abstract(参考訳): 本研究では,複数センサの時系列データからマシンの異なるインスタンスの故障を予測するタスクや,複数のウェアラブルセンサから異なる個人に対するアクティビティ認識タスクなど,関連する多変量時系列学習タスクについて検討する。
このような環境で生じる2つの未調査の実践的課題に焦点をあてる。
(i)各タスクはセンサーの異なるサブセット、すなわち基盤となる「システム」の異なる部分的な観測を提供する。
この制限は、前者ではメーカーが異なり、後者では測定装置を着用している人が多かれ少なかれいるためである。
(ii)タスクレベルで観測されると、タスクからデータを保存または再アクセスすることは許されない。
これは、人の場合のプライバシーの配慮や、マシン所有者による法的制限による可能性がある。
それでも私たちは
(a)完了したタスクからの経験を生かして、その後のタスクのパフォーマンスを向上させる
(b)過去のタスク、例えば、モデルを更新し、その後観察したタスクから学習した後、最初のマシンでも予測を改善し続ける。
既存の連続学習手法は、タスク間で利用可能なセンサのサブセットが異なるため、入力次元の変動を考慮しておらず、そのような可変入力次元(VID)タスクに適応するのに苦労している。
本稿では,既存の手法の欠点に対処する。
この目的のために,タスク固有の生成モデルと分類器を学習し,対象タスクに対するデータ拡張に使用する。
タスク間の入力次元が異なるため,標準的なリカレントニューラルネットワークを支援するグラフニューラルネットワークに基づく新しいコンディショニングモジュールを提案する。
2つの活動認識タスク(分類)と1つの予後タスク(回帰)に対応する3つの公開データセットに対する提案手法の有効性を評価した。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - Object-Centric Multi-Task Learning for Human Instances [8.035105819936808]
オブジェクト中心学習によって複数のタスクのパラメータを最大に共有する,コンパクトなマルチタスクネットワークアーキテクチャについて検討する。
我々は、人中心クエリ(HCQ)と呼ばれる、人間のインスタンス情報を効果的に符号化する新しいクエリ設計を提案する。
実験結果から,提案したマルチタスクネットワークは,最先端タスク固有モデルに匹敵する精度を実現することがわかった。
論文 参考訳(メタデータ) (2023-03-13T01:10:50Z) - Continual Object Detection via Prototypical Task Correlation Guided
Gating Mechanism [120.1998866178014]
pRotOtypeal taSk corrElaTion guided gaTingAnism (ROSETTA)による連続物体検出のためのフレキシブルなフレームワークを提案する。
具体的には、統一されたフレームワークはすべてのタスクで共有され、タスク対応ゲートは特定のタスクのサブモデルを自動的に選択するために導入されます。
COCO-VOC、KITTI-Kitchen、VOCのクラスインクリメンタル検出、および4つのタスクの逐次学習の実験により、ROSETTAが最先端のパフォーマンスを得ることが示された。
論文 参考訳(メタデータ) (2022-05-06T07:31:28Z) - On Steering Multi-Annotations per Sample for Multi-Task Learning [79.98259057711044]
マルチタスク学習の研究はコミュニティから大きな注目を集めている。
目覚ましい進歩にもかかわらず、異なるタスクを同時に学習するという課題はまだ検討されていない。
従来の研究は、異なるタスクから勾配を修正しようとするが、これらの手法はタスク間の関係の主観的な仮定を与え、修正された勾配はより正確でないかもしれない。
本稿では,タスク割り当てアプローチによってこの問題に対処する機構であるタスク割当(STA)を紹介し,各サンプルをランダムにタスクのサブセットに割り当てる。
さらなる進展のために、我々は全てのタスクを反復的に割り当てるためにInterleaved Task Allocation(ISTA)を提案する。
論文 参考訳(メタデータ) (2022-03-06T11:57:18Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Multi-Task Learning with Sequence-Conditioned Transporter Networks [67.57293592529517]
シーケンスコンディショニングと重み付きサンプリングのレンズによるマルチタスク学習の実現を目指している。
合成タスクを対象とした新しいベンチマークであるMultiRavensを提案する。
次に,視覚に基づくエンドツーエンドシステムアーキテクチャであるSequence-Conditioned Transporter Networksを提案する。
論文 参考訳(メタデータ) (2021-09-15T21:19:11Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Reparameterizing Convolutions for Incremental Multi-Task Learning
without Task Interference [75.95287293847697]
マルチタスクモデルを開発する際の2つの一般的な課題は、しばしば文献で見過ごされる。
まず、モデルを本質的に漸進的に可能にし、以前に学んだことを忘れずに新しいタスクから情報を継続的に取り入れる(インクリメンタルラーニング)。
第二に、タスク間の有害な相互作用を排除し、マルチタスク設定(タスク干渉)においてシングルタスクのパフォーマンスを著しく低下させることが示されている。
論文 参考訳(メタデータ) (2020-07-24T14:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。