論文の概要: Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution
- arxiv url: http://arxiv.org/abs/2202.03126v4
- Date: Fri, 30 Jun 2023 17:08:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 16:11:57.675125
- Title: Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution
- Title(参考訳): 完全教師なし人物の再同定とテキストオーサシップへの活用と自己指導型学習
- Authors: Gabriel Bertocco, Ant\^onio Theophilo, Fernanda Andal\'o and Anderson
Rocha
- Abstract要約: 完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
- 参考スコア(独自算出の注目度): 77.85461690214551
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning from fully-unlabeled data is challenging in Multimedia Forensics
problems, such as Person Re-Identification and Text Authorship Attribution.
Recent self-supervised learning methods have shown to be effective when dealing
with fully-unlabeled data in cases where the underlying classes have
significant semantic differences, as intra-class distances are substantially
lower than inter-class distances. However, this is not the case for forensic
applications in which classes have similar semantics and the training and test
sets have disjoint identities. General self-supervised learning methods might
fail to learn discriminative features in this scenario, thus requiring more
robust strategies. We propose a strategy to tackle Person Re-Identification and
Text Authorship Attribution by enabling learning from unlabeled data even when
samples from different classes are not prominently diverse. We propose a novel
ensemble-based clustering strategy whereby clusters derived from different
configurations are combined to generate a better grouping for the data samples
in a fully-unsupervised way. This strategy allows clusters with different
densities and higher variability to emerge, reducing intra-class discrepancies
without requiring the burden of finding an optimal configuration per dataset.
We also consider different Convolutional Neural Networks for feature extraction
and subsequent distance computations between samples. We refine these distances
by incorporating context and grouping them to capture complementary
information. Our method is robust across both tasks, with different data
modalities, and outperforms state-of-the-art methods with a fully-unsupervised
solution without any labeling or human intervention.
- Abstract(参考訳): 完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師付き学習法は,クラス間距離がクラス間距離よりもかなり低いため,クラス間の意味的差異が著しい場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
しかし、クラスが類似のセマンティクスを持ち、トレーニングとテストセットが相反するアイデンティティを持つ法医学的応用の場合、これはそうではない。
一般的な自己教師型学習手法は、このシナリオで差別的特徴を学習できないため、より堅牢な戦略を必要とする。
異なるクラスからのサンプルが顕著に多様でない場合でも、ラベルのないデータから学習できるようにし、人物の再同定とテキストの著者シップの帰属に取り組む戦略を提案する。
本研究では,異なる構成から派生したクラスタを組み合わせ,教師なしの方法でデータサンプルのより優れたグループ化を実現する,アンサンブルベースのクラスタリング戦略を提案する。
この戦略により、異なる密度と高いバラエティを持つクラスタが出現し、データセットごとに最適な構成を見つける必要がなくなることなく、クラス内の不一致を低減できる。
また,標本間の特徴抽出と後続距離計算のために,異なる畳み込みニューラルネットワークも検討する。
コンテキストを組み込んでそれらをグループ化し、補完的な情報を取得することで、これらの距離を洗練します。
提案手法は,各タスク間のロバストで,データモダリティが異なり,ラベル付けや人的介入を伴わずに,完全教師なしのソリューションで最先端の手法より優れている。
関連論文リスト
- Annotation-Efficient Polyp Segmentation via Active Learning [45.59503015577479]
アノテーション効率の良いポリプセグメンテーションのための深層能動的学習フレームワークを提案する。
実際に,ポリプの予測マップと背景領域の類似性を調べることで,各試料の不確実性を測定する。
提案手法は,パブリックデータセットと大規模社内データセットの双方において,競合相手と比較して,最先端性能を実現していることを示す。
論文 参考訳(メタデータ) (2024-03-21T12:25:17Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Large-scale Fully-Unsupervised Re-Identification [78.47108158030213]
大規模未ラベルデータから学ぶための2つの戦略を提案する。
第1の戦略は、近傍関係に違反することなく、それぞれのデータセットサイズを減らすために、局所的な近傍サンプリングを行う。
第2の戦略は、低時間上限の複雑さを持ち、メモリの複雑さを O(n2) から O(kn) に k n で還元する新しい再帰的手法を利用する。
論文 参考訳(メタデータ) (2023-07-26T16:19:19Z) - Deep Metric Learning Assisted by Intra-variance in A Semi-supervised
View of Learning [0.0]
ディープ・メトリック・ラーニングは、異なるクラスのサンプルが互いに遠く離れているのに対して、同じクラスのサンプルが互いに近い埋め込み空間を構築することを目的としている。
本稿では,従来の教師付き深度学習のためのクラス内分散学習スキームの半教師付きビューを提供する自己教師付き生成支援ランキングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-04-21T13:30:32Z) - Voxel-wise Adversarial Semi-supervised Learning for Medical Image
Segmentation [4.489713477369384]
医用画像セグメンテーションのための新しい対向学習に基づく半教師付きセグメンテーション手法を提案する。
本手法では,複数の階層から局所的特徴とグローバルな特徴を埋め込んで,複数のクラス間のコンテキスト関係を学習する。
左心房(シングルクラス)とマルチオーガニックデータセット(マルチクラス)のイメージセグメンテーションにおける、最先端の半教師あり学習手法よりも優れています。
論文 参考訳(メタデータ) (2022-05-14T06:57:19Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Clustering augmented Self-Supervised Learning: Anapplication to Land
Cover Mapping [10.720852987343896]
本稿では,自己教師型学習のためのクラスタリングに基づくプレテキストタスクを用いて,土地被覆マッピングの新しい手法を提案する。
社会的に関係のある2つのアプリケーションに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-08-16T19:35:43Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。