論文の概要: Beyond Transfer Learning: Co-finetuning for Action Localisation
- arxiv url: http://arxiv.org/abs/2207.03807v1
- Date: Fri, 8 Jul 2022 10:25:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 14:08:06.714327
- Title: Beyond Transfer Learning: Co-finetuning for Action Localisation
- Title(参考訳): Beyond Transfer Learning: アクションローカライゼーションのための共同ファインタニング
- Authors: Anurag Arnab, Xuehan Xiong, Alexey Gritsenko, Rob Romijnders, Josip
Djolonga, Mostafa Dehghani, Chen Sun, Mario Lu\v{c}i\'c, Cordelia Schmid
- Abstract要約: 同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
- 参考スコア(独自算出の注目度): 64.07196901012153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning is the predominant paradigm for training deep networks on
small target datasets. Models are typically pretrained on large ``upstream''
datasets for classification, as such labels are easy to collect, and then
finetuned on ``downstream'' tasks such as action localisation, which are
smaller due to their finer-grained annotations. In this paper, we question this
approach, and propose co-finetuning -- simultaneously training a single model
on multiple ``upstream'' and ``downstream'' tasks. We demonstrate that
co-finetuning outperforms traditional transfer learning when using the same
total amount of data, and also show how we can easily extend our approach to
multiple ``upstream'' datasets to further improve performance. In particular,
co-finetuning significantly improves the performance on rare classes in our
downstream task, as it has a regularising effect, and enables the network to
learn feature representations that transfer between different datasets.
Finally, we observe how co-finetuning with public, video classification
datasets, we are able to achieve state-of-the-art results for spatio-temporal
action localisation on the challenging AVA and AVA-Kinetics datasets,
outperforming recent works which develop intricate models.
- Abstract(参考訳): 転送学習は、小さなターゲットデータセットでディープネットワークをトレーニングするための主要なパラダイムである。
モデルは通常、分類のための大きな ``upstream'' データセットで事前トレーニングされ、そのようなラベルは収集が容易であり、アクションローカライズのような ``downstream'' タスクで微調整される。
本稿では,このアプローチに疑問を呈し,複数の ``upstream'' タスクと ``downstream'' タスクで単一モデルを同時にトレーニングする共精細化を提案する。
同じ総量のデータを使用する場合、コフィニットチューニングは従来の転送学習よりも優れており、また、我々のアプローチを複数の ``upstream'' データセットに拡張し、パフォーマンスをさらに向上させる方法も示しています。
特に、協調調整は、レギュライゼーション効果があるため、ダウンストリームタスクにおけるレアクラスのパフォーマンスを大幅に向上させ、異なるデータセット間で転送される特徴表現をネットワークが学べるようにします。
最後に、パブリックなビデオ分類データセットと組み合わせることで、挑戦的なAVAおよびAVA-Kineticsデータセット上での時空間的行動ローカライゼーションの最先端結果が達成され、複雑なモデルを開発する最近の研究よりも優れています。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Towards Large-scale 3D Representation Learning with Multi-dataset Point Prompt Training [44.790636524264]
ポイント・プロンプト・トレーニング(Point Prompt Training)は、3D表現学習の文脈におけるマルチデータセットのシナジスティック学習のための新しいフレームワークである。
シナジスティック学習に関連する負の移動を克服し、一般化可能な表現を生成する。
教師付きマルチデータセットトレーニングを備えた1つの重み付きモデルを用いて、各データセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-18T17:59:57Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - AD-PT: Autonomous Driving Pre-Training with Large-scale Point Cloud
Dataset [25.935496432142976]
知覚モデルが大規模なクラウドデータセットから学ぶことは、Autonomous Driving (AD)コミュニティの長期的なビジョンである。
我々は、ポイントクラウド事前トレーニングタスクを半教師付き問題として定式化し、少数のラベル付きおよび大規模ラベルなしのポイントクラウドデータを活用する。
我々は、異なるベースラインモデルの下で、nuScenesやKITTIを含む一連の下流認識ベンチマークにおいて、大幅な性能向上を達成する。
論文 参考訳(メタデータ) (2023-06-01T12:32:52Z) - Continual Learning with Optimal Transport based Mixture Model [17.398605698033656]
成熟最適輸送理論(OT-MM)の優れた性質に基づくオンライン混合モデル学習手法を提案する。
提案手法は,現在の最先端のベースラインを大きく上回ることができる。
論文 参考訳(メタデータ) (2022-11-30T06:40:29Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。