論文の概要: The Solution for the sequential task continual learning track of the 2nd Greater Bay Area International Algorithm Competition
- arxiv url: http://arxiv.org/abs/2407.04996v1
- Date: Sat, 6 Jul 2024 08:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 21:37:47.018381
- Title: The Solution for the sequential task continual learning track of the 2nd Greater Bay Area International Algorithm Competition
- Title(参考訳): 第2回グレーターベイエリア国際アルゴリズムコンペティションにおける逐次タスク連続学習の解法
- Authors: Sishun Pan, Xixian Wu, Tingmin Li, Longfei Huang, Mingxu Feng, Zhonghua Wan, Yang Yang,
- Abstract要約: 本研究では,第2回グレーターベイエリア国際アルゴリズムコンペティションの連続的なタスク継続学習トラックのための連続学習アルゴリズムを開発する。
この方法は、ネットワークの畳み込み層と線形層内の各タスクの独立パラメータ部分空間を学習し、最初のタスク後にバッチ正規化層を凍結する。
我々のアプローチでは、コアネットワークの拡張や外部補助ネットワークやデータの使用は必要とせず、タスクインクリメンタルとドメインインクリメンタルの両方でうまく機能します。
- 参考スコア(独自算出の注目度): 2.836792073276832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a data-free, parameter-isolation-based continual learning algorithm we developed for the sequential task continual learning track of the 2nd Greater Bay Area International Algorithm Competition. The method learns an independent parameter subspace for each task within the network's convolutional and linear layers and freezes the batch normalization layers after the first task. Specifically, for domain incremental setting where all domains share a classification head, we freeze the shared classification head after first task is completed, effectively solving the issue of catastrophic forgetting. Additionally, facing the challenge of domain incremental settings without providing a task identity, we designed an inference task identity strategy, selecting an appropriate mask matrix for each sample. Furthermore, we introduced a gradient supplementation strategy to enhance the importance of unselected parameters for the current task, facilitating learning for new tasks. We also implemented an adaptive importance scoring strategy that dynamically adjusts the amount of parameters to optimize single-task performance while reducing parameter usage. Moreover, considering the limitations of storage space and inference time, we designed a mask matrix compression strategy to save storage space and improve the speed of encryption and decryption of the mask matrix. Our approach does not require expanding the core network or using external auxiliary networks or data, and performs well under both task incremental and domain incremental settings. This solution ultimately won a second-place prize in the competition.
- Abstract(参考訳): 本稿では,第2回グレーターベイエリア国際アルゴリズムコンペティションの連続的なタスク継続学習トラックに対して,データフリーでパラメータアイソレーションに基づく連続学習アルゴリズムを提案する。
この方法は、ネットワークの畳み込み層と線形層内の各タスクに対して独立したパラメータ部分空間を学習し、最初のタスク後にバッチ正規化層を凍結する。
具体的には、すべてのドメインが分類ヘッドを共有しているドメインインクリメンタルな設定において、最初のタスクが完了した後、共有分類ヘッドを凍結し、破滅的な忘れを効果的に解決する。
さらに、タスクの同一性を提供しずにドメインの漸進的な設定の課題に直面し、各サンプルに対して適切なマスク行列を選択する推論タスクの同一性戦略を設計した。
さらに,現在課題における未選択パラメータの重要性を高め,新たな課題の学習を容易にするために,勾配補足戦略を導入した。
また,パラメータの量を動的に調整して単一タスクの性能を最適化し,パラメータの使用量を削減する適応的重要度スコアリング戦略を実装した。
さらに,記憶空間の制限と推定時間を考慮して,記憶空間を節約し,マスク行列の暗号化と復号化の高速化を図るマスク行列圧縮戦略を考案した。
我々のアプローチでは、コアネットワークの拡張や外部補助ネットワークやデータの使用は必要とせず、タスクインクリメンタルとドメインインクリメンタルの両方でうまく機能します。
この解決策は最終的に大会で2位を獲得した。
関連論文リスト
- Task-Aware Harmony Multi-Task Decision Transformer for Offline Reinforcement Learning [70.96345405979179]
オフラインマルチタスク強化学習(MTRL)の目的は、オンライン環境相互作用を必要とせず、多様なタスクに適用可能な統一されたポリシーを開発することである。
タスクの内容と複雑さの変化は、政策の定式化において重大な課題を引き起こします。
本稿では,各タスクに対するパラメータの最適な調和部分空間を特定するための新しいソリューションであるHarmoDT(Harmony Multi-Task Decision Transformer)を紹介する。
論文 参考訳(メタデータ) (2024-11-02T05:49:14Z) - A Two-stage Reinforcement Learning-based Approach for Multi-entity Task Allocation [27.480892280342417]
意思決定者は、さまざまなシナリオで合理的にエンティティをタスクに割り当てなければならない。
従来のメソッドは静的な属性とタスクやエンティティの数を前提としており、しばしば動的プログラミングとソリューションのアルゴリズムに依存している。
類似性に基づく2段階のタスク割り当てアルゴリズムを提案し、強化学習を利用してアロケーション戦略を学習する。
論文 参考訳(メタデータ) (2024-06-29T17:13:44Z) - Natural Policy Gradient and Actor Critic Methods for Constrained Multi-Task Reinforcement Learning [13.908826484332282]
マルチタスク強化学習(Multi-task reinforcement learning, RL)は、複数のタスクを同時に効果的に解決する単一のポリシーを見つけることを目的としている。
本稿では,マルチタスクRLの制約付き定式化を行い,各タスクのパフォーマンスに制約が課せられるタスク間のポリシーの平均性能を最大化することを目的とする。
論文 参考訳(メタデータ) (2024-05-03T19:43:30Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Multi-Prompt Alignment for Multi-Source Unsupervised Domain Adaptation [86.02485817444216]
マルチプロンプトアライメント(MPA: Multi-Prompt Alignment)は,マルチソースUDAのためのシンプルかつ効率的なフレームワークである。
MPAは、学習したプロンプトを自動エンコードプロセスで認知し、再構築されたプロンプトの合意を最大化することでそれらを調整する。
実験によると、MPAは3つの一般的なデータセットで最先端の結果を達成し、DomainNetの平均精度は54.1%である。
論文 参考訳(メタデータ) (2022-09-30T03:40:10Z) - Learning towards Synchronous Network Memorizability and Generalizability
for Continual Segmentation across Multiple Sites [52.84959869494459]
臨床実践では、複数のサイトから連続的なデータストリームを継続的に学習するために、セグメンテーションネットワークが必要であることが多い。
既存の方法は、通常、以前のサイトのネットワーク記憶可能性や、目に見えないサイトの一般化可能性に制限される。
本稿では,SMG学習フレームワークの提案により,同期記憶可能性と一般化可能性の問題に取り組むことを目的とする。
論文 参考訳(メタデータ) (2022-06-14T13:04:36Z) - Continual Coarse-to-Fine Domain Adaptation in Semantic Segmentation [22.366638308792734]
ディープニューラルネットワークは通常、特定のタスクとデータ分散のために、単一のショットでトレーニングされる。
実際の環境では、タスクとアプリケーションドメインの両方が変更される可能性がある。
本稿では,ドメインシフトが存在する場合のセマンティックセグメンテーションアーキテクチャの粗大な学習という新たな課題を紹介する。
論文 参考訳(メタデータ) (2022-01-18T13:31:19Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Jump Operator Planning: Goal-Conditioned Policy Ensembles and Zero-Shot
Transfer [71.44215606325005]
本稿では,シーケンシャルなサブゴールタスクの超指数空間における解を高速に計算するための,Jump-Operator Dynamic Programmingという新しいフレームワークを提案する。
このアプローチでは、時間的に拡張された行動として機能する、再利用可能な目標条件付き警察のアンサンブルを制御する。
すると、この部分空間上の目的関数のクラスを、解がグラウンド化に不変であるものとして特定し、最適ゼロショット移動をもたらす。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z) - SPACE: Structured Compression and Sharing of Representational Space for
Continual Learning [10.06017287116299]
漸進的に学習するタスクは、ニューラルネットワークが古いタスクについて学んだ関連情報を上書きし、結果として「破滅的な予測」をもたらす
本研究では,学習した空間をコア空間に分割することで,ネットワークが継続的に効率的に学習できるSPACEを提案する。
我々は,P-MNIST,CIFAR,および8つの異なるデータセットの列に対するアルゴリズムの評価を行い,最先端の手法に匹敵する精度を実現する。
論文 参考訳(メタデータ) (2020-01-23T16:40:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。