論文の概要: MNN: Mixed Nearest-Neighbors for Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2311.00562v2
- Date: Mon, 13 Nov 2023 14:21:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 19:51:00.944390
- Title: MNN: Mixed Nearest-Neighbors for Self-Supervised Learning
- Title(参考訳): MNN: 自己指導型学習のための近親者の混在
- Authors: Xianzhong Long, Chen Peng, Yun Li
- Abstract要約: 自己監督型学習(MNN)のための近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近近
我々は、MNN(Mixed Nearest-Neighbors for Self-Supervised Learning)と呼ばれる単純な自己教師型学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.327408694770709
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In contrastive self-supervised learning, positive samples are typically drawn
from the same image but in different augmented views, resulting in a relatively
limited source of positive samples. An effective way to alleviate this problem
is to incorporate the relationship between samples, which involves including
the top-K nearest neighbors of positive samples. However, the problem of false
neighbors (i.e., neighbors that do not belong to the same category as the
positive sample) is an objective but often overlooked challenge due to the
query of neighbor samples without supervision information. In this paper, we
present a simple self-supervised learning framework called Mixed
Nearest-Neighbors for Self-Supervised Learning (MNN). MNN optimizes the
influence of neighbor samples on the semantics of positive samples through an
intuitive weighting approach and image mixture operations. The results
demonstrate that MNN exhibits exceptional generalization performance and
training efficiency on four benchmark datasets.
- Abstract(参考訳): 対照的に自己教師付き学習では、正のサンプルは、通常同じ画像から引き出されるが、異なる拡張ビューで引き出されるため、比較的限られた正のサンプル源となる。
この問題を軽減する効果的な方法は、サンプル間の関係を組み込むことである。
しかし、偽の隣人の問題(すなわち、正のサンプルと同じカテゴリに属しない隣人の問題)は客観的であるが、監督情報のない隣人のサンプルの問い合わせによってしばしば見過ごされる課題である。
本稿では,MNN(Mixed Nearest-Neighbors for Self-Supervised Learning)と呼ばれる,シンプルな自己教師型学習フレームワークを提案する。
MNNは、直感的な重み付け手法と画像混合操作により、サンプルのセマンティクスに対する近隣サンプルの影響を最適化する。
その結果、MNNは4つのベンチマークデータセットに対して、例外的な一般化性能とトレーニング効率を示した。
関連論文リスト
- Bootstrap Latents of Nodes and Neighbors for Graph Self-Supervised Learning [27.278097015083343]
対照的な学習は、モデルの崩壊を防ぎ、差別的な表現を学ぶために負のサンプルを必要とする。
我々は、アンカーノードに対する隣人の支持率を予測するために、クロスアテンションモジュールを導入する。
本手法は, 負の正試料と雑音の正試料とのクラス衝突を緩和し, クラス内コンパクト度を同時に向上する。
論文 参考訳(メタデータ) (2024-08-09T14:17:52Z) - Task-oriented Embedding Counts: Heuristic Clustering-driven Feature Fine-tuning for Whole Slide Image Classification [1.292108130501585]
本稿では,クラスタリング駆動型機能微調整法(HC-FT)を提案する。
提案手法はCAMELYON16とBRACSの両方で評価され,それぞれ97.13%,85.85%のAUCが得られた。
論文 参考訳(メタデータ) (2024-06-02T08:53:45Z) - Propensity Score Alignment of Unpaired Multimodal Data [3.8373578956681555]
マルチモーダル表現学習技術は通常、共通の表現を学ぶためにペア化されたサンプルに依存する。
本稿では,マルチモーダル表現学習において,異なるモダリティにまたがるアンペア化サンプルの整列化という課題に対処するアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-02T02:36:21Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Learning with Noisy Labels Using Collaborative Sample Selection and
Contrastive Semi-Supervised Learning [76.00798972439004]
Collaborative Sample Selection (CSS)は、特定されたクリーンセットからノイズの多いサンプルを削除する。
半教師付き学習において、対照的な損失を伴う協調学習機構を導入する。
論文 参考訳(メタデータ) (2023-10-24T05:37:20Z) - Decoupled Contrastive Multi-View Clustering with High-Order Random Walks [25.03805821839733]
高次ランダムウォークを用いた非結合型コントラスト多視点クラスタリング(DIVIDE)と呼ばれる新しいロバストな手法を提案する。
簡単に言うと、DIVIDEはランダムウォークを利用して、局所的な方法でではなく、グローバルにデータペアを段階的に識別する。
DIVIDEは、近隣の陰性および近隣の陽性を識別できる。
論文 参考訳(メタデータ) (2023-08-22T03:45:13Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。