論文の概要: Benchmarking Sensitivity of Continual Graph Learning for Skeleton-Based
Action Recognition
- arxiv url: http://arxiv.org/abs/2401.18054v1
- Date: Wed, 31 Jan 2024 18:20:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 13:26:56.009352
- Title: Benchmarking Sensitivity of Continual Graph Learning for Skeleton-Based
Action Recognition
- Title(参考訳): スケルトンベース行動認識のための連続グラフ学習のベンチマーク感度
- Authors: Wei Wei, Tom De Schepper, Kevin Mets
- Abstract要約: 継続的学習(CL)は、スクラッチからリトレーニングすることなく、さまざまなタスクにわたって知識を継続的に蓄積できる機械学習モデルを構築することを目的としている。
従来の研究では、事前学習グラフニューラルネットワーク(GNN)が微調整後に負の伝達を引き起こす可能性があることが示されている。
連続グラフ学習設定のための最初の連続グラフ学習ベンチマークを提案する。
- 参考スコア(独自算出の注目度): 6.14431765787048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning (CL) is the research field that aims to build machine
learning models that can accumulate knowledge continuously over different tasks
without retraining from scratch. Previous studies have shown that pre-training
graph neural networks (GNN) may lead to negative transfer (Hu et al., 2020)
after fine-tuning, a setting which is closely related to CL. Thus, we focus on
studying GNN in the continual graph learning (CGL) setting. We propose the
first continual graph learning benchmark for spatio-temporal graphs and use it
to benchmark well-known CGL methods in this novel setting. The benchmark is
based on the N-UCLA and NTU-RGB+D datasets for skeleton-based action
recognition. Beyond benchmarking for standard performance metrics, we study the
class and task-order sensitivity of CGL methods, i.e., the impact of learning
order on each class/task's performance, and the architectural sensitivity of
CGL methods with backbone GNN at various widths and depths. We reveal that
task-order robust methods can still be class-order sensitive and observe
results that contradict previous empirical observations on architectural
sensitivity in CL.
- Abstract(参考訳): 継続的学習(Continuous Learning, CL)は、さまざまなタスクに対して知識を継続的に蓄積するマシンラーニングモデルを構築するための研究分野である。
これまでの研究では、事前学習されたグラフニューラルネットワーク(gnn)が微調整後の負の転送(huなど、2020年)につながる可能性があることが示されている。
そこで我々は,連続グラフ学習(CGL)におけるGNNの研究に注力する。
本稿では、時空間グラフのための最初の連続グラフ学習ベンチマークを提案し、この新しい設定でよく知られたCGL手法のベンチマークに使用する。
このベンチマークは骨格に基づく行動認識のためのN-UCLAとNTU-RGB+Dデータセットに基づいている。
標準性能指標のベンチマーク以外にも,各クラス/タスクのパフォーマンスに対する学習順序の影響や,様々な幅と深さでバックボーンGNNを用いたCGLメソッドのアーキテクチャ感度など,CGLメソッドのクラスおよびタスク順の感度について検討する。
タスク順ロバストなメソッドはクラス順に敏感であり、clのアーキテクチャの感度に関する以前の経験的観察と矛盾する結果を観察できることを明らかにする。
関連論文リスト
- Continual Learning on Graphs: Challenges, Solutions, and Opportunities [72.7886669278433]
本稿では,既存の連続グラフ学習(CGL)アルゴリズムの総合的なレビューを行う。
従来の連続学習手法と比較し,従来の連続学習手法の適用性を分析した。
アクセス可能なアルゴリズムの包括的なリストを含む、最新のリポジトリを維持します。
論文 参考訳(メタデータ) (2024-02-18T12:24:45Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Graph Contrastive Learning for Skeleton-based Action Recognition [85.86820157810213]
骨格に基づく行動認識のためのグラフコントラスト学習フレームワークを提案する。
SkeletonGCLは、グラフをクラス識別に強制することで、シーケンス間のグラフ学習を関連付ける。
SkeletonGCLは新しいトレーニングパラダイムを確立し、現在のグラフ畳み込みネットワークにシームレスに組み込むことができる。
論文 参考訳(メタデータ) (2023-01-26T02:09:16Z) - Self-Supervised Graph Structure Refinement for Graph Neural Networks [31.924317784535155]
グラフ構造学習(GSL)はグラフニューラルネットワーク(GNN)の隣接行列の学習を目的としている
既存のGSLの作業の多くは、推定隣接行列とGNNパラメータを下流タスクに最適化した共同学習フレームワークを適用している。
プレトレイン-ファインチューンパイプラインを用いたグラフ構造改善(GSR)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T02:01:46Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Continual Learning with Gated Incremental Memories for sequential data
processing [14.657656286730736]
従来の知識を忘れずに動的で非定常的な環境で学習する能力、あるいは継続学習(CL)は、適応型ソリューションのスケーラブルで信頼性の高いデプロイを可能にする重要な手段である。
本研究では,従来の知識を忘れることなく,入力分布における概念ドリフトに対処できるCLのためのリカレントニューラルネットワーク(RNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-04-08T16:00:20Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks with
Experience Replay [16.913443823792022]
グラフニューラルネットワーク(GNN)は、最近、様々なグラフ関連学習タスクにおける優れたパフォーマンスのために、大きな研究の注目を集めている。
本研究では,GNNを連続学習タスクに適用できるかどうかを考察する。
論文 参考訳(メタデータ) (2020-03-22T14:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。