論文の概要: International Workshop on Continual Semi-Supervised Learning:
Introduction, Benchmarks and Baselines
- arxiv url: http://arxiv.org/abs/2110.14613v1
- Date: Wed, 27 Oct 2021 17:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 12:53:06.988359
- Title: International Workshop on Continual Semi-Supervised Learning:
Introduction, Benchmarks and Baselines
- Title(参考訳): 半教師付き学習に関する国際ワークショップ:序論、ベンチマーク、ベースライン
- Authors: Ajmal Shahbaz, Salman Khan, Mohammad Asiful Hossain, Vincenzo
Lomonaco, Kevin Cannons, Zhan Xu and Fabio Cuzzolin
- Abstract要約: 本研究の目的は,CSSL(Continuous semi-supervised learning)パラダイムを定式化することである。
本稿では、2つの重要なコンピュータビジョンタスクでCSSLを評価するために特別に設計された2つの新しいベンチマークを紹介する。
本稿では,これらのベンチマーク上に構築されたCAR(Continuous Activity Recognition)とCCC(Continuous Crowd Counting)の課題について述べる。
- 参考スコア(独自算出の注目度): 20.852277473776617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The aim of this paper is to formalize a new continual semi-supervised
learning (CSSL) paradigm, proposed to the attention of the machine learning
community via the IJCAI 2021 International Workshop on Continual
Semi-Supervised Learning (CSSL-IJCAI), with the aim of raising field awareness
about this problem and mobilizing its effort in this direction. After a formal
definition of continual semi-supervised learning and the appropriate training
and testing protocols, the paper introduces two new benchmarks specifically
designed to assess CSSL on two important computer vision tasks: activity
recognition and crowd counting. We describe the Continual Activity Recognition
(CAR) and Continual Crowd Counting (CCC) challenges built upon those
benchmarks, the baseline models proposed for the challenges, and describe a
simple CSSL baseline which consists in applying batch self-training in temporal
sessions, for a limited number of rounds. The results show that learning from
unlabelled data streams is extremely challenging, and stimulate the search for
methods that can encode the dynamics of the data stream.
- Abstract(参考訳): 本研究の目的は,ijcai 2021 international workshop on continual semi-supervised learning (cssl-ijcai) を通じて,機械学習コミュニティの注目を集めるために提案された,新たな連続的半教師付き学習(cssl)パラダイムを定式化することである。
連続的半教師付き学習の形式的定義と適切なトレーニングおよびテストプロトコルの後に,CSSLを2つの重要なコンピュータビジョンタスク(アクティビティ認識とクラウドカウント)で評価するための2つの新しいベンチマークを導入する。
本稿では,これらのベンチマークに基づいて構築された連続的行動認識(car)と連続的群衆数(ccc)の課題について述べる。
その結果,非競合データストリームからの学習は非常に困難であることが示され,データストリームのダイナミクスを符号化する手法の探索が促進された。
関連論文リスト
- Continual Task Learning through Adaptive Policy Self-Composition [54.95680427960524]
CompoFormerは構造ベースの連続トランスフォーマーモデルであり、メタポリシックネットワークを介して、以前のポリシーを適応的に構成する。
実験の結果,CompoFormerは従来の継続学習法(CL)よりも優れており,特にタスクシーケンスが長いことが判明した。
論文 参考訳(メタデータ) (2024-11-18T08:20:21Z) - Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - Recent Advances of Foundation Language Models-based Continual Learning: A Survey [31.171203978742447]
基礎言語モデル (LM) は自然言語処理 (NLP) とコンピュータビジョン (CV) の分野において重要な成果を上げている。
しかし、破滅的な忘れ物のため、人間のような継続的学習をエミュレートすることはできない。
従来の知識を忘れずに新しいタスクに適応できるように、様々な連続学習(CL)ベースの方法論が開発されている。
論文 参考訳(メタデータ) (2024-05-28T23:32:46Z) - DELTA: Decoupling Long-Tailed Online Continual Learning [7.507868991415516]
Long-Tailed Online Continual Learning (LTOCL)は、クラス不均衡なデータストリームのシーケンシャルな到着から新しいタスクを学ぶことを目的としている。
DELTAは,学習表現の強化を目的とした非結合型学習手法である。
我々は,DELTAが既存のOCL手法を超越して,インクリメンタル学習の能力を向上させることを実証した。
論文 参考訳(メタデータ) (2024-04-06T02:33:04Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z) - CLAD: A realistic Continual Learning benchmark for Autonomous Driving [33.95470797472666]
本稿では、自動運転のための新しい連続学習ベンチマークを動機づける設計とアイデアについて述べる。
ベンチマークでは、先日リリースされた大規模なデータセットであるSODA10Mが使用されている。
CLAD-Cは、クラスとドメインの漸進的な課題を生じさせる時系列データストリームを通じて実現されたオンライン分類ベンチマークである。
ICCV 2021のCLAD-Challengeワークショップにおいて,トップ3の参加者が使用するテクニックと手法を調査し,ベンチマークがもたらす課題と課題について検討した。
論文 参考訳(メタデータ) (2022-10-07T12:08:25Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Continual Learning From Unlabeled Data Via Deep Clustering [7.704949298975352]
継続的学習は、新しいタスクが到着するたびにモデルをスクラッチから再トレーニングするのではなく、少ない計算とメモリリソースを使って、新しいタスクをインクリメンタルに学習することを目的としている。
クラスタ割り当てから得られた擬似ラベルをモデル更新に用いて,教師なしモードで継続的学習を実現する新たなフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T23:46:17Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。