論文の概要: SML: Semantic Meta-learning for Few-shot Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2009.06680v1
- Date: Mon, 14 Sep 2020 18:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 12:42:18.543178
- Title: SML: Semantic Meta-learning for Few-shot Semantic Segmentation
- Title(参考訳): SML:Few-shot Semantic Segmentationのためのセマンティックメタラーニング
- Authors: Ayyappa Kumar Pambala, Titir Dutta, Soma Biswas
- Abstract要約: 本稿では,提案するメタ学習フレームワークSemantic Meta-Learningを提案する。
さらに,クラスレベルのセマンティック情報を取り入れるだけでなく,トレーニングデータに含まれる複数の画像から得られる情報を,プロトタイプの計算に有効活用する手法であるリッジ回帰(ridge regression)を提案する。
- 参考スコア(独自算出の注目度): 27.773396307292497
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The significant amount of training data required for training Convolutional
Neural Networks has become a bottleneck for applications like semantic
segmentation. Few-shot semantic segmentation algorithms address this problem,
with an aim to achieve good performance in the low-data regime, with few
annotated training images. Recently, approaches based on class-prototypes
computed from available training data have achieved immense success for this
task. In this work, we propose a novel meta-learning framework, Semantic
Meta-Learning (SML) which incorporates class level semantic descriptions in the
generated prototypes for this problem. In addition, we propose to use the well
established technique, ridge regression, to not only bring in the class-level
semantic information, but also to effectively utilise the information available
from multiple images present in the training data for prototype computation.
This has a simple closed-form solution, and thus can be implemented easily and
efficiently. Extensive experiments on the benchmark PASCAL-5i dataset under
different experimental settings show the effectiveness of the proposed
framework.
- Abstract(参考訳): 畳み込みニューラルネットワークのトレーニングに必要な大量のトレーニングデータが、セマンティックセグメンテーションのようなアプリケーションのボトルネックになっている。
アノテーション付きトレーニング画像がほとんどなく、低データ方式で優れたパフォーマンスを実現するために、いくつかのショットセマンティックセマンティックセマンティクスアルゴリズムがこの問題に対処する。
近年,利用可能なトレーニングデータから計算したクラスプロトタイプに基づくアプローチが大きな成功を収めている。
本研究では,クラスレベルの意味記述を生成プロトタイプに組み込んだ新しいメタ学習フレームワークSemantic Meta-Learning(SML)を提案する。
さらに,十分に確立された手法であるリッジ回帰法を用いて,クラスレベルの意味情報をもたらすだけでなく,トレーニングデータに存在する複数の画像から得られる情報を効果的に活用し,プロトタイプ計算を行う。
これは単純な閉形式解を持ち、簡単にかつ効率的に実装できる。
実験条件の異なるPASCAL-5iデータセットのベンチマーク実験により,提案手法の有効性が示された。
関連論文リスト
- Semantic Meta-Split Learning: A TinyML Scheme for Few-Shot Wireless Image Classification [50.28867343337997]
本研究は,TinyMLを用いた無線画像分類のためのセマンティック・コミュニケーション・フレームワークを提案する。
我々は、プライバシ保護を確保しつつ、エンドユーザーによって実行される計算を制限するために分割学習を利用する。
メタ学習は、データ可用性の懸念を克服し、同様のトレーニングされたタスクを利用することで、トレーニングを高速化する。
論文 参考訳(メタデータ) (2024-09-03T05:56:55Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - A Simple-but-effective Baseline for Training-free Class-Agnostic
Counting [30.792198686654075]
CAC(Class-Agnostic Counting)は、いくつかの参照例だけで、与えられた画像内のオブジェクトを正確にカウントすることを目指している。
近年の取り組みでは、既存の基礎モデルを利用することで、トレーニングなしでこれを達成できることが示されている。
我々は、このパフォーマンスギャップを効果的に橋渡しし、強力なベースラインとして機能する、トレーニング不要のソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-03T07:19:50Z) - Improving Meta-learning for Low-resource Text Classification and
Generation via Memory Imitation [87.98063273826702]
本稿では,メモリ模倣メタラーニング(MemIML)手法を提案する。
本手法の有効性を証明するために理論的解析を行った。
論文 参考訳(メタデータ) (2022-03-22T12:41:55Z) - Beyond Simple Meta-Learning: Multi-Purpose Models for Multi-Domain,
Active and Continual Few-Shot Learning [41.07029317930986]
低ラベル方式で動作するモデルの分散感応クラスを提案する。
最初の手法であるSimple CNAPSは階層的に正規化されたマハラノビス距離に基づく分類器を用いる。
我々はさらに、このアプローチをトランスダクティブ学習環境に拡張し、トランスダクティブCNAPSを提案する。
論文 参考訳(メタデータ) (2022-01-13T18:59:02Z) - A Representation Learning Perspective on the Importance of
Train-Validation Splitting in Meta-Learning [14.720411598827365]
各タスクからのデータを、メタトレーニング中にトレインとバリデーションセットに分割する。
列車価分割は,表現性を損なうことなく,学習した表現を低ランクにすることを促すと論じる。
サンプル効率は低ランク性から恩恵を受けるため、分割戦略は見当たらないテストタスクを解決するのに非常に少数のサンプルを必要とする。
論文 参考訳(メタデータ) (2021-06-29T17:59:33Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。