論文の概要: Hubs and Hyperspheres: Reducing Hubness and Improving Transductive
Few-shot Learning with Hyperspherical Embeddings
- arxiv url: http://arxiv.org/abs/2303.09352v1
- Date: Thu, 16 Mar 2023 14:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 15:12:28.752623
- Title: Hubs and Hyperspheres: Reducing Hubness and Improving Transductive
Few-shot Learning with Hyperspherical Embeddings
- Title(参考訳): hubs and hyperspheres: 超球面埋め込みによるハブネスの低減とトランスダクティブな少数ショット学習の改善
- Authors: Daniel J. Trosten, Rwiddhi Chakraborty, Sigurd L{\o}kse, Kristoffer
Knutsen Wickstr{\o}m, Robert Jenssen, Michael C. Kampffmeyer
- Abstract要約: いくつかの点(ハーブ)は、他の点の複数の最も近い近傍リストで頻繁に発生する。
ハブネスは、あるクラスからのハブが他のクラスからの最も近いポイントの隣人の中にしばしば現れるとき、距離ベースの分類に悪影響を及ぼす。
我々は超球面上に表現を埋め込むための2つの新しいアプローチを提案し、均一性と局所類似性保存とのトレードオフを最適化することを証明した。
- 参考スコア(独自算出の注目度): 14.192549988460126
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distance-based classification is frequently used in transductive few-shot
learning (FSL). However, due to the high-dimensionality of image
representations, FSL classifiers are prone to suffer from the hubness problem,
where a few points (hubs) occur frequently in multiple nearest neighbour lists
of other points. Hubness negatively impacts distance-based classification when
hubs from one class appear often among the nearest neighbors of points from
another class, degrading the classifier's performance. To address the hubness
problem in FSL, we first prove that hubness can be eliminated by distributing
representations uniformly on the hypersphere. We then propose two new
approaches to embed representations on the hypersphere, which we prove optimize
a tradeoff between uniformity and local similarity preservation -- reducing
hubness while retaining class structure. Our experiments show that the proposed
methods reduce hubness, and significantly improves transductive FSL accuracy
for a wide range of classifiers.
- Abstract(参考訳): 距離に基づく分類は、トランスダクティブ・ショットラーニング(FSL)において頻繁に用いられる。
しかし、画像表現の高次元性のため、FSL分類器はハブ性の問題に悩まされがちであり、いくつかの点(ハーブ)が他の点の複数の近傍リストで頻繁に発生する。
ハネスは、あるクラスからのハブが他のクラスから最も近いポイントの隣人の中にしばしば現れるとき、距離ベースの分類に悪影響を及ぼし、分類器のパフォーマンスを低下させる。
FSLにおける疎密性問題に対処するため、まず、超球面上に一様に表現を分散させることにより、疎密性を排除できることを証明した。
次に、ハイパースフィアに表現を埋め込むための2つの新しいアプローチを提案し、クラス構造を維持しながら、一様性と局所的類似性保存とのトレードオフを最適化することを証明した。
実験により,提案手法はハブ性を低減し,広範囲の分類器に対するトランスダクティブFSL精度を大幅に向上することが示された。
関連論文リスト
- BECLR: Batch Enhanced Contrastive Few-Shot Learning [1.450405446885067]
教師なしの少数ショット学習は、トレーニング時にアノテーションへの依存を捨てることで、このギャップを埋めようとしている。
本稿では,高度に分離可能な潜在表現空間を促進するために,新しい動的クラスタ mEmory (DyCE) モジュールを提案する。
そして、数ショットの推論段階でサンプルバイアスの問題に取り組みます。
論文 参考訳(メタデータ) (2024-02-04T10:52:43Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Guarding Barlow Twins Against Overfitting with Mixed Samples [27.7244906436942]
自己教師付き学習は、ラベル付きデータに頼ることなく、下流アプリケーションのための転送可能な特徴表現を学習することを目的としている。
線形補間標本を用いたBarlow Twinsトレーニングにおけるサンプルインタラクションの改善を目的としたMixed Barlow Twinsを紹介した。
論文 参考訳(メタデータ) (2023-12-04T18:59:36Z) - Hubness Reduction Improves Sentence-BERT Semantic Spaces [1.8420149175440346]
本稿では,Sentence-BERTを用いた埋め込みから生じる意味空間の構造について検討する。
これらの表現は、高次元において、ハブネスと呼ばれるよく知られた問題に悩まされている。
ハブ性が高い場合には、ハブ性低減法を用いてエラー率とハブ性を低減することができる。
論文 参考訳(メタデータ) (2023-11-30T09:03:49Z) - SpatialFormer: Semantic and Target Aware Attentions for Few-Shot Learning [40.68842434076631]
CNN構造は、局所的な特徴に基づいて不正確な注意マップを生成し、相互に類似した背景が気晴らしを引き起こす。
我々は,グローバルな特徴に基づいてより正確な注意領域を生成するために,新しいSpatialFormer構造を設計する。
提案手法は実効性があり, 数発の分類ベンチマークにおいて, 最新の結果が得られる。
論文 参考訳(メタデータ) (2023-03-15T08:31:48Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Fast Simultaneous Gravitational Alignment of Multiple Point Sets [82.32416743939004]
本稿では,複数点集合の同時登録のための新しいレジリエントな手法を提案し,後者を相互誘導力場内で厳密に動く粒子群として解釈する。
物理法則の変更によるシミュレーションの改善と、グローバルな多重リンク点相互作用の加速により、MBGA(Multi-Body Gravitational Approach)はノイズや欠落データに対して堅牢である。
様々な実験環境では、MBGAは精度と実行時間の観点から、いくつかの基準点セットアライメントアプローチより優れていることが示されている。
論文 参考訳(メタデータ) (2021-06-21T17:59:40Z) - Few-shot Image Recognition with Manifolds [10.312968200748116]
ソースドメインデータがアクセスできない状況に、従来の数発の学習問題を拡張します。
限られたトレーニングデータから,すべてのクラスプロトタイプが多様体上に構造的に配置されていることを前提として,非パラメトリックな手法を提案する。
分類において、クラスプロトタイプで構築されたグラフ上にマルコフ連鎖を誘導することにより、カテゴリの構造的配置を再び活用する。
論文 参考訳(メタデータ) (2020-10-22T21:57:27Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - A Boundary Based Out-of-Distribution Classifier for Generalized
Zero-Shot Learning [83.1490247844899]
Generalized Zero-Shot Learning (GZSL)は多くの現実的なシナリオにおいて有望な見通しを持つ挑戦的なトピックである。
本研究では,見知らぬ領域を学習用サンプルのみを用いて分類する境界に基づくアウト・オブ・ディストリビューション(OOD)分類器を提案する。
我々は、AWA1、AWA2、CUB、FLO、SUNを含む5つの人気のあるベンチマークデータセットに対して、我々のアプローチを広範囲に検証する。
論文 参考訳(メタデータ) (2020-08-09T11:27:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。