論文の概要: Extending and Analyzing Self-Supervised Learning Across Domains
- arxiv url: http://arxiv.org/abs/2004.11992v2
- Date: Mon, 17 Aug 2020 16:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 02:48:52.770500
- Title: Extending and Analyzing Self-Supervised Learning Across Domains
- Title(参考訳): ドメイン間の自己監督型学習の拡張と分析
- Authors: Bram Wallace, Bharath Hariharan
- Abstract要約: 近年,自己指導型表現学習が目覚ましい成果を上げている。
実験は主にImageNetや他の同様の大規模なインターネット画像データセット上で行われる。
我々は、前例のない様々なドメインで、いくつかのポピュラーな手法を実験した。
- 参考スコア(独自算出の注目度): 50.13326427158233
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised representation learning has achieved impressive results in
recent years, with experiments primarily coming on ImageNet or other similarly
large internet imagery datasets. There has been little to no work with these
methods on other smaller domains, such as satellite, textural, or biological
imagery. We experiment with several popular methods on an unprecedented variety
of domains. We discover, among other findings, that Rotation is by far the most
semantically meaningful task, with much of the performance of Jigsaw and
Instance Discrimination being attributable to the nature of their induced
distribution rather than semantic understanding. Additionally, there are
several areas, such as fine-grain classification, where all tasks underperform.
We quantitatively and qualitatively diagnose the reasons for these failures and
successes via novel experiments studying pretext generalization, random
labelings, and implicit dimensionality. Code and models are available at
https://github.com/BramSW/Extending_SSRL_Across_Domains/.
- Abstract(参考訳): 自己教師付き表現学習は近年、imagenetや他の大規模インターネット画像データセットで実験を行い、印象的な成果を上げている。
他の小さな領域(衛星、テクストラル、生物画像など)では、これらの手法がほとんど、あるいは全く使われていない。
我々は前例のない様々な領域でいくつかの一般的な手法を試す。
我々は、Rotationがはるかに意味のあるタスクであり、Jigsawとインスタンス識別のパフォーマンスは、意味論的理解よりも誘導された分散の性質に起因していることを発見した。
さらに、細粒度分類など、すべてのタスクがパフォーマンスの悪い領域もいくつかある。
我々は,前文一般化,ランダムラベリング,暗黙的次元に関する新しい実験を通じて,これらの失敗と成功の理由を定量的に定性的に診断する。
コードとモデルはhttps://github.com/BramSW/Extending_SSRL_Across_Domains/で公開されている。
関連論文リスト
- Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Fuse and Attend: Generalized Embedding Learning for Art and Sketches [6.375982344506753]
本稿では,様々な領域にまたがる一般化を目的とした新しい埋め込み学習手法を提案する。
PACS(Photo, Art painting, Cartoon, Sketch)データセット上で,Domainフレームワークを用いた手法の有効性を示す。
論文 参考訳(メタデータ) (2022-08-20T14:44:11Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Streaming Self-Training via Domain-Agnostic Unlabeled Images [62.57647373581592]
視覚認識モデル学習の過程を民主化することを目的としたストリーミング自己学習(SST)を提案する。
SSTの鍵となるのは、(1)ドメインに依存しない未ラベル画像により、追加の知識や監督なしにいくつかのラベル付き例でより良いモデルを学ぶことができ、(2)学習は継続的なプロセスであり、学習更新のスケジュールを構築することで行うことができる。
論文 参考訳(メタデータ) (2021-04-07T17:58:39Z) - Domain Adapting Ability of Self-Supervised Learning for Face Recognition [0.0]
深層畳み込みネットワークは顔認識タスクにおいて大きなパフォーマンスを実現している。
ドメインの相違の課題は、現実世界のアプリケーションにまだ存在する。
本論文では,より優れた埋め込み空間を学習するために,自己監督型学習を採用する。
論文 参考訳(メタデータ) (2021-02-26T06:23:14Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning Cross-domain Generalizable Features by Representation
Disentanglement [11.74643883335152]
ディープラーニングモデルは、異なるドメイン間で限定的な一般化性を示す。
本稿では,MIDNet(Multual-Information-based Disentangled Neural Networks)を提案する。
本手法は手書き桁データセットと胎児超音波データセットを用いて画像分類を行う。
論文 参考訳(メタデータ) (2020-02-29T17:53:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。