論文の概要: Self-Supervised Image Representation Learning: Transcending Masking with
Paired Image Overlay
- arxiv url: http://arxiv.org/abs/2301.09299v1
- Date: Mon, 23 Jan 2023 07:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 14:00:47.483729
- Title: Self-Supervised Image Representation Learning: Transcending Masking with
Paired Image Overlay
- Title(参考訳): 自己教師あり画像表現学習:ペア画像オーバーレイによる超越マスク
- Authors: Yinheng Li, Han Ding, Shaofei Wang
- Abstract要約: 本稿では,自己教師型学習には適用されていない画像のオーバーレイ化という,新たな画像強調手法を提案する。
提案手法は,ダウンストリームタスクにおいて確固とした性能を示す自己教師付き学習手法であるコントラスト学習を用いて評価する。
- 参考スコア(独自算出の注目度): 10.715255809531268
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Self-supervised learning has become a popular approach in recent years for
its ability to learn meaningful representations without the need for data
annotation. This paper proposes a novel image augmentation technique,
overlaying images, which has not been widely applied in self-supervised
learning. This method is designed to provide better guidance for the model to
understand underlying information, resulting in more useful representations.
The proposed method is evaluated using contrastive learning, a widely used
self-supervised learning method that has shown solid performance in downstream
tasks. The results demonstrate the effectiveness of the proposed augmentation
technique in improving the performance of self-supervised models.
- Abstract(参考訳): 近年,データアノテーションを必要とせずに意味のある表現を学習する能力によって,自己指導型学習が普及している。
本稿では,自己教師あり学習では広く適用されていない新しい画像拡張手法であるオーバーレイ画像を提案する。
この方法は、モデルが基礎となる情報を理解するためのより良いガイダンスを提供し、より有用な表現をもたらすように設計されている。
提案手法は,ダウンストリームタスクにおいて強固な性能を示す自己教師付き学習手法であるコントラスト学習を用いて評価する。
その結果,提案手法が自己教師付きモデルの性能向上に有効であることが示された。
関連論文リスト
- From Prototypes to General Distributions: An Efficient Curriculum for Masked Image Modeling [11.634154932876719]
Masked Image Modelingは視覚表現学習のための強力な自己教師型学習パラダイムとして登場した。
本稿では,原典例からデータセットのより複雑なバリエーションまで,学習プロセスの進行を構造化する,プロトタイプ駆動型カリキュラム学習フレームワークを提案する。
本研究は, 自己指導型視覚学習において, トレーニング事例の順序を慎重に制御することが重要な役割を担っていることを示唆している。
論文 参考訳(メタデータ) (2024-11-16T03:21:06Z) - Enhancing Large Vision Language Models with Self-Training on Image Comprehension [131.14381425260706]
本稿では、画像理解に特化して自己学習アプローチを強調する自己学習 on Image (STIC)を紹介する。
まず、ラベルのない画像を用いて、画像記述の好みを自己構築する。
抽出した視覚情報に対する推論をさらに自己改善するため,既存の命令調整データのごく一部をモデルに再利用する。
論文 参考訳(メタデータ) (2024-05-30T05:53:49Z) - A Probabilistic Model Behind Self-Supervised Learning [53.64989127914936]
自己教師付き学習(SSL)では、アノテートラベルなしで補助的なタスクを通じて表現が学習される。
自己教師型学習のための生成潜在変数モデルを提案する。
対照的な方法を含む識別的SSLのいくつかのファミリーは、表現に匹敵する分布を誘導することを示した。
論文 参考訳(メタデータ) (2024-02-02T13:31:17Z) - From Pretext to Purpose: Batch-Adaptive Self-Supervised Learning [32.18543787821028]
本稿では,自己教師付きコントラスト学習におけるバッチ融合の適応的手法を提案する。
公平な比較で最先端のパフォーマンスを達成する。
提案手法は,データ駆動型自己教師型学習研究の進展に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-16T15:47:49Z) - Towards Efficient and Effective Self-Supervised Learning of Visual
Representations [41.92884427579068]
自己監督は視覚的表現学習のための提案的な方法として現れてきた。
より高速に収束する適切な補助タスクを用いて,これらの手法を強化することを提案する。
提案手法は回転予測のタスクを利用して,既存の最先端手法の効率を向上させる。
論文 参考訳(メタデータ) (2022-10-18T13:55:25Z) - VL-LTR: Learning Class-wise Visual-Linguistic Representation for
Long-Tailed Visual Recognition [61.75391989107558]
本稿では,VL-LTRと呼ばれる視覚言語的長尾認識フレームワークを提案する。
本手法は,画像から視覚表現とそれに対応する言語表現を,雑音のあるクラスレベルのテキスト記述から学習することができる。
特に,ImageNet-LTでは77.2%の精度を達成し,従来のベストメソッドよりも17ポイント以上優れていた。
論文 参考訳(メタデータ) (2021-11-26T16:24:03Z) - Learning Rich Nearest Neighbor Representations from Self-supervised
Ensembles [60.97922557957857]
推論時間における勾配降下から直接表現を学習する新しい手法により、自己教師付きモデルアンサンブルを行うためのフレームワークを提供する。
この技術は、ドメイン内のデータセットと転送設定の両方において、k-nearestの隣人によって測定されるように、表現品質を改善する。
論文 参考訳(メタデータ) (2021-10-19T22:24:57Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - MEAL: Manifold Embedding-based Active Learning [0.0]
アクティブな学習は、ラベル付けのための最も有望なサンプルを提案することで、少量のデータから学ぶのに役立つ。
本稿では,各獲得ステップにおいて,有望な画像領域を提案するアクティブラーニングのためのプールベースの新しい手法を提案する。
また,Cityscapesでは,Cityscapesでは,CamVidの性能向上が認められなかった。
論文 参考訳(メタデータ) (2021-06-22T15:22:56Z) - Multi-Pretext Attention Network for Few-shot Learning with
Self-supervision [37.6064643502453]
補助的なサンプルに依存しない自己教師付き学習のための,新しい拡張不要な手法を提案する。
さらに,従来の拡張信頼手法とGCを組み合わせるために,特定の注意機構を利用するマルチテキスト注意ネットワーク(MAN)を提案する。
miniImageNetおよびtieredImageNetデータセット上でMANを幅広く評価し、提案手法が最新(SOTA)関連手法より優れていることを実証した。
論文 参考訳(メタデータ) (2021-03-10T10:48:37Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。