論文の概要: Unsqueeze [CLS] Bottleneck to Learn Rich Representations
- arxiv url: http://arxiv.org/abs/2407.17671v1
- Date: Wed, 24 Jul 2024 23:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:47:21.266232
- Title: Unsqueeze [CLS] Bottleneck to Learn Rich Representations
- Title(参考訳): リッチ表現を学習するUnsqueeze [CLS] Bottleneck
- Authors: Qing Su, Shihao Ji,
- Abstract要約: Insqueezed Distillation-based self-supervised learning (SSL)を提案する。
UDIは局所予測の統合プロファイルから抽出したマルチモーダル予測を奨励する。
評価の結果, UDIは意味的に意味のある表現をインスタンスレベルで促進するだけでなく, 入力のニュアンスを効果的に保っていることがわかった。
- 参考スコア(独自算出の注目度): 9.105403811936029
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distillation-based self-supervised learning typically leads to more compressed representations due to its radical clustering process and the implementation of a sharper target distribution. To overcome this limitation and preserve more information from input, we introduce UDI, conceptualized as Unsqueezed Distillation-based self-supervised learning (SSL). UDI enriches the learned representation by encouraging multimodal prediction distilled from a consolidated profile of local predictions that are derived via stratified sampling. Our evaluations show that UDI not only promotes semantically meaningful representations at instance level, delivering superior or competitive results to state-of-the-art SSL methods in image classification, but also effectively preserves the nuisance of input, which yields significant improvement in dense prediction tasks, including object detection and segmentation. Additionally, UDI performs competitively in low-shot image classification, improving the scalability of joint-embedding pipelines. Various visualizations and ablation studies are presented to further elucidate the mechanisms behind UDI. Our source code is available at https://github.com/ISL-CV/udi.
- Abstract(参考訳): 蒸留に基づく自己教師付き学習は、急進的なクラスタリングプロセスとよりシャープなターゲット分布の実装により、一般的により圧縮された表現をもたらす。
この制限を克服し、より多くの情報を入力から保存するために、Unsqueezed Distillation-based self-supervised learning (SSL)として概念化されたUDIを導入する。
UDIは、階層化サンプリングによって導出される局所予測の統合プロファイルから抽出されたマルチモーダル予測を奨励することにより、学習された表現を豊かにする。
評価の結果, UDIは画像分類において, 意味的に意味のある表現を推進し, 最先端のSSL手法に優れた結果をもたらすだけでなく, 入力のニュアンスを効果的に保ち, オブジェクト検出やセグメンテーションなどの密接な予測タスクを大幅に改善することが示された。
さらに、UDIはローショット画像分類において競合的に機能し、共同埋め込みパイプラインのスケーラビリティを向上させる。
UDIの背後にあるメカニズムをさらに解明するために、様々な可視化とアブレーション研究が提示されている。
ソースコードはhttps://github.com/ISL-CV/udi.comで公開されています。
関連論文リスト
- A Probabilistic Model behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
識別性SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示す。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - Deep Clustering with Diffused Sampling and Hardness-aware
Self-distillation [4.550555443103878]
本稿では, 拡散サンプリングと硬度認識型自己蒸留(HaDis)を併用した, エンドツーエンドの深層クラスタリング手法を提案する。
5つの課題の画像データセットの結果は、最先端のHaDis法よりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2024-01-25T09:33:49Z) - Pruning the Unlabeled Data to Improve Semi-Supervised Learning [17.62242617965356]
PruneSSLは、オリジナルのラベルなしデータセットからサンプルを選択的に削除し、分離性を高める技術である。
PruneSSLは学習者の利用可能なトレーニングデータの量を減らすが、様々な競合するSSLアルゴリズムの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-08-27T09:45:41Z) - Unilaterally Aggregated Contrastive Learning with Hierarchical
Augmentation for Anomaly Detection [64.50126371767476]
階層的拡張(UniCon-HA)を用いた一方的集約型コントラスト学習を提案する。
我々は、教師付きおよび教師なしの対照的な損失を通じて、インレーヤの濃度と仮想外れ値の分散を明示的に奨励する。
本手法は,ラベルなし1クラス,ラベルなしマルチクラス,ラベル付きマルチクラスを含む3つのAD設定で評価される。
論文 参考訳(メタデータ) (2023-08-20T04:01:50Z) - Enlarging Instance-specific and Class-specific Information for Open-set
Action Recognition [47.69171542776917]
よりリッチなセマンティックな多様性を持つ機能は、同じ不確実性スコアの下で、オープンセットのパフォーマンスを著しく向上させることができる。
よりIS情報を保持するために、インスタンスの分散を同じクラス内に保持するために、新しいPSLフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-03-25T04:07:36Z) - Mitigating Forgetting in Online Continual Learning via Contrasting
Semantically Distinct Augmentations [22.289830907729705]
オンライン連続学習(OCL)は、非定常データストリームからモデル学習を可能とし、新たな知識を継続的に獲得し、学習した知識を維持することを目的としている。
主な課題は、"破滅的な忘れる"問題、すなわち、新しい知識を学習しながら学習した知識を十分に記憶できないことにある。
論文 参考訳(メタデータ) (2022-11-10T05:29:43Z) - On Higher Adversarial Susceptibility of Contrastive Self-Supervised
Learning [104.00264962878956]
コントラスト型自己教師学習(CSL)は,画像と映像の分類において,教師あり学習のパフォーマンスに適合するか上回っている。
2つの学習パラダイムによって誘導される表現の性質が似ているかどうかは、いまだに不明である。
我々は,CSL表現空間における単位超球面上のデータ表現の均一分布を,この現象の鍵となる要因として同定する。
CSLトレーニングでモデルロバスト性を改善するのにシンプルだが有効である戦略を考案する。
論文 参考訳(メタデータ) (2022-07-22T03:49:50Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。