論文の概要: Exploring Instance Relations for Unsupervised Feature Embedding
- arxiv url: http://arxiv.org/abs/2105.03341v1
- Date: Fri, 7 May 2021 15:47:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:15:22.702767
- Title: Exploring Instance Relations for Unsupervised Feature Embedding
- Title(参考訳): 教師なし機能埋め込みのためのインスタンス関係の探索
- Authors: Yifei Zhang, Yu Zhou, Weiping Wang
- Abstract要約: 本稿では、インスタンス間マルチビュー関係と非監視機能埋め込みのインスタンス間関係について検討する。
提案手法はEIRと呼ばれ、単純なyet効果を持ち、既存のビュー不変のコントラストベースの手法に簡単に挿入できる。
- 参考スコア(独自算出の注目度): 12.882929865091423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the great progress achieved in unsupervised feature embedding,
existing contrastive learning methods typically pursue view-invariant
representations through attracting positive sample pairs and repelling negative
sample pairs in the embedding space, while neglecting to systematically explore
instance relations. In this paper, we explore instance relations including
intra-instance multi-view relation and inter-instance interpolation relation
for unsupervised feature embedding. Specifically, we embed intra-instance
multi-view relation by aligning the distribution of the distance between an
instance's different augmented samples and negative samples. We explore
inter-instance interpolation relation by transferring the ratio of information
for image sample interpolation from pixel space to feature embedding space. The
proposed approach, referred to as EIR, is simple-yet-effective and can be
easily inserted into existing view-invariant contrastive learning based
methods. Experiments conducted on public benchmarks for image classification
and retrieval report state-of-the-art or comparable performance.
- Abstract(参考訳): 教師なし特徴埋め込み(unsupervised feature embedded)で達成された大きな進歩にもかかわらず、既存のコントラスト学習法は通常、正のサンプルペアを引き寄せて負のサンプルペアを埋め込み空間に忌避しながら、系統的なインスタンス関係の探索を怠りながら、ビュー不変表現を追求する。
本稿では,教師なし特徴埋め込みのインスタンス間マルチビュー関係とインテント間補間関係を含むインスタンス間関係について検討する。
具体的には,インスタンスの異なる拡張サンプルと負のサンプル間の距離分布を整合させることで,インスタンス内マルチビュー関係を埋め込む。
画像サンプル補間のための情報の割合を画素空間から特徴埋め込み空間に移すことで、instance補間関係を考察する。
提案手法はEIRと呼ばれ、単純なyet効果があり、既存のビュー不変のコントラスト学習手法に簡単に挿入できる。
画像分類と検索に関する公開ベンチマークで実施した実験は、最先端または同等の性能である。
関連論文リスト
- Deep Contrastive Multi-view Clustering under Semantic Feature Guidance [8.055452424643562]
本稿では,Semantic Feature Guide (DCMCS) の下で,Deep Contrastive Multi-view Clustering というマルチビュークラスタリングフレームワークを提案する。
意味的類似性によって重み付けされたインスタンスレベルのコントラスト損失を最小化することにより、DCMCSは偽陰対間のコントラストの傾きを適応的に弱める。
いくつかの公開データセットの実験結果は、提案したフレームワークが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2024-03-09T02:33:38Z) - Multi-level Relation Learning for Cross-domain Few-shot Hyperspectral
Image Classification [8.78907921615878]
クロスドメインの少数ショットハイパースペクトル画像分類は、ソースドメインから多数のラベル付きサンプルから事前知識を学ぶことに焦点を当てている。
本稿では,異なるレベルのサンプル関係を学習し,それらをモデル学習プロセスに取り入れることを提案する。
論文 参考訳(メタデータ) (2023-11-02T13:06:03Z) - Siamese Representation Learning for Unsupervised Relation Extraction [5.776369192706107]
非教師付き関係抽出(URE)は、オープンドメインのプレーンテキストから名前付きエンティティペア間の基礎となる関係を見つけることを目的としている。
比較学習を利用した既存のUREモデルでは、正のサンプルを惹きつけ、より良い分離を促進するために負のサンプルを反発させる効果がある。
非教師関係抽出のためのシームズ表現学習 - 正のペアを単純に活用して表現学習を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T02:57:43Z) - Soft Neighbors are Positive Supporters in Contrastive Visual
Representation Learning [35.53729744330751]
コントラスト学習法は、あるインスタンスと他のインスタンスのビューを比較して視覚エンコーダを訓練する。
このバイナリインスタンス識別は、自己教師付き学習における特徴表現を改善するために広範囲に研究されている。
本稿では、インスタンス識別フレームワークを再考し、異なるサンプル間の相関を測定するのに不十分なバイナリインスタンスラベルを見つける。
論文 参考訳(メタデータ) (2023-03-30T04:22:07Z) - Deep Incomplete Multi-view Clustering with Cross-view Partial Sample and
Prototype Alignment [50.82982601256481]
深層不完全なマルチビュークラスタリングのためのクロスビュー部分サンプルとプロトタイプアライメントネットワーク(CPSPAN)を提案する。
従来のコントラストベースの手法とは異なり、インスタンスとインスタンスの対応構築を導くために、ペア観測データアライメントを「プロキシ監視信号」として採用する。
論文 参考訳(メタデータ) (2023-03-28T02:31:57Z) - Beyond Instance Discrimination: Relation-aware Contrastive
Self-supervised Learning [75.46664770669949]
本稿では,関係認識型コントラスト型自己教師型学習(ReCo)をインスタンス関係に統合するために提案する。
当社のReCoは、常に顕著なパフォーマンス改善を実現しています。
論文 参考訳(メタデータ) (2022-11-02T03:25:28Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Learning Multimodal VAEs through Mutual Supervision [72.77685889312889]
MEMEは、相互監督を通じて暗黙的にモダリティ間の情報を結合する。
我々は、MEMEが、部分的および完全観察スキームの双方で標準メトリクスのベースラインを上回ることを実証する。
論文 参考訳(メタデータ) (2021-06-23T17:54:35Z) - An Unsupervised Sampling Approach for Image-Sentence Matching Using
Document-Level Structural Information [64.66785523187845]
教師なし画像文マッチングの問題に焦点をあてる。
既存の研究では、文書レベルの構造情報を用いて、モデルトレーニングの正および負のインスタンスをサンプリングする方法が検討されている。
そこで本研究では,追加の文書内画像-文対を正あるいは負のサンプルとして選択する新しいサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-03-21T05:43:29Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。