論文の概要: No Free Lunch in Self Supervised Representation Learning
- arxiv url: http://arxiv.org/abs/2304.11718v1
- Date: Sun, 23 Apr 2023 18:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 16:44:52.258958
- Title: No Free Lunch in Self Supervised Representation Learning
- Title(参考訳): 自己監督型表現学習における自由ランチ
- Authors: Ihab Bendidi, Adrien Bardes, Ethan Cohen, Alexis Lamiable, Guillaume
Bollot, Auguste Genovesio
- Abstract要約: コンピュータビジョンにおける自己教師付き表現学習は手作りの画像変換に大きく依存する。
変換が下流のパフォーマンスとクラスタリングの関連性に影響を及ぼすことを示す。
トランスフォーメーションを設計することは、監督の一形態と見なすことができる。
- 参考スコア(独自算出の注目度): 0.32622301272834514
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised representation learning in computer vision relies heavily on
hand-crafted image transformations to learn meaningful and invariant features.
However few extensive explorations of the impact of transformation design have
been conducted in the literature. In particular, the dependence of downstream
performances to transformation design has been established, but not studied in
depth. In this work, we explore this relationship, its impact on a domain other
than natural images, and show that designing the transformations can be viewed
as a form of supervision. First, we demonstrate that not only do
transformations have an effect on downstream performance and relevance of
clustering, but also that each category in a supervised dataset can be impacted
in a different way. Following this, we explore the impact of transformation
design on microscopy images, a domain where the difference between classes is
more subtle and fuzzy than in natural images. In this case, we observe a
greater impact on downstream tasks performances. Finally, we demonstrate that
transformation design can be leveraged as a form of supervision, as careful
selection of these by a domain expert can lead to a drastic increase in
performance on a given downstream task.
- Abstract(参考訳): コンピュータビジョンにおける自己教師あり表現学習は、有意義で不変な特徴を学ぶために手作りの画像変換に大きく依存する。
しかしながら、トランスフォーメーションデザインの影響に関する広範な調査は文献上ほとんど行われていない。
特に、下流性能の変換設計への依存は確立されているが、深くは研究されていない。
本研究では,この関係と自然画像以外の領域への影響を考察し,その変換を監督の一形態と見なすことができることを示す。
まず、トランスフォーメーションがダウンストリームのパフォーマンスとクラスタリングの関連性に影響を及ぼすだけでなく、教師付きデータセットの各カテゴリが異なる方法で影響を受けることを実証する。
次に,クラス間の差が自然画像よりも微妙でファジィな領域である顕微鏡画像に変換設計が与える影響について検討する。
この場合、下流タスクのパフォーマンスにより大きな影響を与えることが観察される。
最後に、ドメインエキスパートによるこれらを慎重に選択することで、所定の下流タスクにおけるパフォーマンスが大幅に向上する可能性があるため、トランスフォーメーション設計を監督の一形態として活用できることを実証する。
関連論文リスト
- Affine transformation estimation improves visual self-supervised
learning [4.40560654491339]
本研究では,アフィン変換の予測表現を制約するモジュールを追加することにより,学習プロセスの性能と効率が向上することを示す。
我々は、様々な近代的な自己監督モデルで実験を行い、全てのケースで性能改善を見る。
論文 参考訳(メタデータ) (2024-02-14T10:32:58Z) - ExpPoint-MAE: Better interpretability and performance for self-supervised point cloud transformers [7.725095281624494]
マスク付き自動符号化の有効性を事前学習方式として評価し,代替手段としてMomentum Contrastを探索する。
我々は,トランスフォーマーが意味論的に意味のある領域への参加を学ぶことを観察し,事前学習が基礎となる幾何学の理解を深めることを示す。
論文 参考訳(メタデータ) (2023-06-19T09:38:21Z) - Objectives Matter: Understanding the Impact of Self-Supervised
Objectives on Vision Transformer Representations [13.437097059358067]
本研究では,再建型学習機能と共同埋め込み型学習機能との相違について述べる。
結合埋め込み特性は,異なる目的が異なる情報分布を駆動するため,分類のための線形プローブ転送の精度が向上することがわかった。
論文 参考訳(メタデータ) (2023-04-25T18:48:23Z) - Learning Explicit Object-Centric Representations with Vision
Transformers [81.38804205212425]
我々は、マスク付き自動符号化の自己超越タスクを構築し、トランスフォーマーを用いたオブジェクト中心表現学習の有効性を探求する。
複数のマルチオブジェクト・ベンチマークのセグメンテーション・メトリクスによって測定された単純なシーンを効率的に分解できることを示す。
論文 参考訳(メタデータ) (2022-10-25T16:39:49Z) - Task Formulation Matters When Learning Continually: A Case Study in
Visual Question Answering [58.82325933356066]
継続的な学習は、以前の知識を忘れずに、一連のタスクでモデルを漸進的にトレーニングすることを目的としている。
本稿では,視覚的質問応答において,異なる設定がパフォーマンスに与える影響について詳細に検討する。
論文 参考訳(メタデータ) (2022-09-30T19:12:58Z) - Why Do Self-Supervised Models Transfer? Investigating the Impact of
Invariance on Downstream Tasks [79.13089902898848]
自己教師付き学習は、非競合画像上での表現学習の強力なパラダイムである。
コンピュータビジョンにおける異なるタスクは、異なる(不変の)分散を符号化する機能を必要とすることを示す。
論文 参考訳(メタデータ) (2021-11-22T18:16:35Z) - Factors of Influence for Transfer Learning across Diverse Appearance
Domains and Task Types [50.1843146606122]
現在の最新のコンピュータビジョンモデルでは、簡単な転送学習が一般的です。
転校学習に関するこれまでの体系的な研究は限られており、作業が期待される状況は十分に理解されていない。
本論文では,非常に異なる画像領域にまたがる転送学習の広範な実験的研究を行う。
論文 参考訳(メタデータ) (2021-03-24T16:24:20Z) - Self-Supervised Representation Learning from Flow Equivariance [97.13056332559526]
本稿では,複雑なシーンの映像ストリームに直接展開可能な,自己教師型学習表現フレームワークを提案する。
高分解能rawビデオから学んだ我々の表現は、静的画像の下流タスクに簡単に使用できます。
論文 参考訳(メタデータ) (2021-01-16T23:44:09Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Data Transformation Insights in Self-supervision with Clustering Tasks [4.413331329339186]
自己教師付きクラスタリングの収束には,ある種の変換が有効であることを示す。
また、変換が役に立たない場合や、場合によっては有害な場合も示します。
論文 参考訳(メタデータ) (2020-02-18T05:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。