論文の概要: Adaptive Anchor Label Propagation for Transductive Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2310.19996v1
- Date: Mon, 30 Oct 2023 20:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 17:36:39.085426
- Title: Adaptive Anchor Label Propagation for Transductive Few-Shot Learning
- Title(参考訳): トランスダクティブ・マイノショット学習のための適応型アンカーラベル伝播
- Authors: Michalis Lazarou, Yannis Avrithis, Guangyu Ren, Tania Stathaki
- Abstract要約: ラベル付きデータによる画像の分類の問題に対処する例は少ない。
識別可能な損失関数を最小化することによりラベル付きデータの特徴埋め込みを適応する新しいアルゴリズムを提案する。
提案アルゴリズムは,1ショット設定と5ショット設定において,標準ラベル伝搬アルゴリズムを最大7%,2%向上させる。
- 参考スコア(独自算出の注目度): 18.29463308334406
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning addresses the issue of classifying images using limited
labeled data. Exploiting unlabeled data through the use of transductive
inference methods such as label propagation has been shown to improve the
performance of few-shot learning significantly. Label propagation infers
pseudo-labels for unlabeled data by utilizing a constructed graph that exploits
the underlying manifold structure of the data. However, a limitation of the
existing label propagation approaches is that the positions of all data points
are fixed and might be sub-optimal so that the algorithm is not as effective as
possible. In this work, we propose a novel algorithm that adapts the feature
embeddings of the labeled data by minimizing a differentiable loss function
optimizing their positions in the manifold in the process. Our novel algorithm,
Adaptive Anchor Label Propagation}, outperforms the standard label propagation
algorithm by as much as 7% and 2% in the 1-shot and 5-shot settings
respectively. We provide experimental results highlighting the merits of our
algorithm on four widely used few-shot benchmark datasets, namely miniImageNet,
tieredImageNet, CUB and CIFAR-FS and two commonly used backbones, ResNet12 and
WideResNet-28-10. The source code can be found at
https://github.com/MichalisLazarou/A2LP.
- Abstract(参考訳): ラベル付きデータによる画像の分類の問題に対処する例は少ない。
ラベル伝搬などのトランスダクティブ推論手法を用いてラベルなしデータを活用することで,少数ショット学習の性能を大幅に向上できることが示されている。
ラベル伝搬は、データの基盤となる多様体構造を利用する構築グラフを利用して、ラベルのないデータの擬似ラベルを推論する。
しかし、既存のラベル伝播アプローチの限界は、すべてのデータポイントの位置が固定されており、アルゴリズムが可能な限り効果的ではないように準最適であるかもしれないことである。
本研究では,その過程における多様体の位置を最適化する可微分損失関数を最小化することにより,ラベル付きデータの特徴埋め込みを適応する新しいアルゴリズムを提案する。
提案アルゴリズムであるAdaptive Anchor Label Propagationは,1ショット設定と5ショット設定において,標準ラベル伝搬アルゴリズムを最大7%,2%向上させる。
提案手法は, miniImageNet, tieredImageNet, CUB, CIFAR-FS と, ResNet12 と WideResNet-28-10 の2つのバックボーンを用いて,提案アルゴリズムの利点を明らかにする実験結果である。
ソースコードはhttps://github.com/MichalisLazarou/A2LPで確認できる。
関連論文リスト
- Learning with Noisy Labels: Interconnection of Two
Expectation-Maximizations [41.65589788264123]
労働集約型ラベリングは、ディープラーニングに基づくコンピュータビジョンアルゴリズムの開発においてボトルネックとなる。
雑音データ中の構造的多様体を見つけるタスクとして形式化された雑音ラベル(LNL)問題による学習に対処する。
本アルゴリズムは,複数の標準ベンチマークにおいて,様々な種類のラベルノイズの下でかなりのマージンを有する最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T07:22:30Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - PointMatch: A Consistency Training Framework for Weakly Supervised
Semantic Segmentation of 3D Point Clouds [117.77841399002666]
本稿では,データ自体から十分な情報を探索するために整合性正規化を適用することで,データとラベルの両面に立つ新しいフレームワークであるPointMatchを提案する。
提案したPointMatchは、ScanNet-v2データセットとS3DISデータセットの両方で、様々な弱い教師付きスキームの下で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-02-22T07:26:31Z) - SparseDet: Improving Sparsely Annotated Object Detection with
Pseudo-positive Mining [76.95808270536318]
Pseudo- positive mining を用いてラベル付き地域とラベルなし地域を分離するエンド・ツー・エンドシステムを提案する。
ラベル付き領域は通常通り処理されるが、ラベルなし領域の処理には自己教師付き学習が使用される。
我々は,PASCAL-VOCとCOCOデータセットの5つの分割に対して,最先端の性能を達成するための徹底的な実験を行った。
論文 参考訳(メタデータ) (2022-01-12T18:57:04Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - SimPLE: Similar Pseudo Label Exploitation for Semi-Supervised
Classification [24.386165255835063]
一般的な分類タスクの状況は、トレーニングに利用可能な大量のデータを持っているが、クラスラベルを持つのはごく一部である。
この文脈で、半監督トレーニングの目標は、大量のラベルのないデータからの情報を利用して分類精度を向上させることです。
本研究では,相互に類似した高信頼度ラベル付きデータ間の研究の少ない関係に焦点をあてた,教師なしの新たな目的を提案する。
提案したSimPLEアルゴリズムは,CIFAR-100およびMini-ImageNetにおける従来のアルゴリズムと比較して有意な性能向上を示した。
論文 参考訳(メタデータ) (2021-03-30T23:48:06Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - Iterative label cleaning for transductive and semi-supervised few-shot
learning [16.627512688664513]
少ないショットの学習は、新しいタスクが監督とデータの両方を限定して解決されるような、表現の学習と知識の獲得に相当します。
ラベル付きおよびラベルなしデータ分布の多様体構造を利用して擬似ラベルを予測するアルゴリズムを提案する。
私たちのソリューションは、4つのベンチマークデータセットのアート結果の状態を上回るか、一致します。
論文 参考訳(メタデータ) (2020-12-14T21:54:11Z) - Reliable Label Bootstrapping for Semi-Supervised Learning [19.841733658911767]
ReLaBは教師なしプレプロセッシングアルゴリズムであり、極めて低い監督条件下での半教師付きアルゴリズムの性能を改善する。
本稿では,ネットワークアーキテクチャと自己教師型アルゴリズムの選択が,ラベルの伝播を成功させる重要な要因であることを示す。
CIFAR-10のクラス毎に1つのランダムなラベル付きサンプルを持つ$boldsymbol22.34$の平均エラー率に達し、各クラスのラベル付きサンプルが非常に代表的である場合に、このエラーを$boldsymbol8.46$に下げる。
論文 参考訳(メタデータ) (2020-07-23T08:51:37Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - Instance Credibility Inference for Few-Shot Learning [45.577880041135785]
ほとんどショットラーニングは、カテゴリごとに非常に限られたトレーニングデータを持つ新しいオブジェクトを認識することを目的としていない。
本稿では,未ラベルのインスタンスの分散サポートを数発の学習に活用するために,ICI (Instance Credibility Inference) と呼ばれる単純な統計手法を提案する。
我々の単純なアプローチは、広く使われている4つのショットラーニングベンチマークデータセットに基づいて、最先端の新たなデータセットを確立することができる。
論文 参考訳(メタデータ) (2020-03-26T12:01:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。