論文の概要: Contrastive Learning for Object Detection
- arxiv url: http://arxiv.org/abs/2208.06412v1
- Date: Fri, 12 Aug 2022 02:02:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:39:43.534778
- Title: Contrastive Learning for Object Detection
- Title(参考訳): 物体検出のためのコントラスト学習
- Authors: Rishab Balasubramanian, Kunal Rathore
- Abstract要約: 我々は,その類似性に基づいて,ランキングクラスによる教師付きコントラスト学習の改善を図る。
人間の偏見(ランク付けの形で)が学習した表現に与える影響を観察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning is commonly used as a method of self-supervised learning
with the "anchor" and "positive" being two random augmentations of a given
input image, and the "negative" is the set of all other images. However, the
requirement of large batch sizes and memory banks has made it difficult and
slow to train. This has motivated the rise of Supervised Contrasative
approaches that overcome these problems by using annotated data. We look to
further improve supervised contrastive learning by ranking classes based on
their similarity, and observe the impact of human bias (in the form of ranking)
on the learned representations. We feel this is an important question to
address, as learning good feature embeddings has been a long sought after
problem in computer vision.
- Abstract(参考訳): コントラスト学習は、与えられた入力画像の「アンカー」と「ポジティヴ」の2つのランダムな拡張である「アンカー」と「ポジティヴ」との自己教師型学習の手法として一般的に用いられ、その「負」は他のすべての画像の集合である。
しかし、大規模なバッチサイズとメモリバンクの要求により、トレーニングが難しく、遅くなっている。
このことは、アノテーション付きデータを使用してこれらの問題を克服するSupervised Contrasativeアプローチの台頭を動機付けている。
我々は,その類似性に基づいてクラスをランク付けすることで教師付きコントラスト学習をさらに改善し,人間バイアス(ランキング)が学習表現に与える影響を観察する。
優れた機能の埋め込みを学ぶことは、コンピュータビジョンにおける長年の問題であったので、これは対処すべき重要な問題だと感じています。
関連論文リスト
- Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation [0.0]
教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-06T18:54:10Z) - Contrastive Learning for OOD in Object detection [0.0]
コントラスト学習は、一般的に自己指導型学習に適用される。
大規模なバッチサイズとメモリバンクは、トレーニングを難しく、遅くしました。
その結果,画像分類とオブジェクト検出において,教師付きコントラスト学習に匹敵する結果が得られた。
論文 参考訳(メタデータ) (2022-08-12T01:51:50Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Mind Your Outliers! Investigating the Negative Impact of Outliers on
Active Learning for Visual Question Answering [71.15403434929915]
視覚的質問応答のタスクにおいて、5つのモデルと4つのデータセットにまたがって、多種多様な能動的学習アプローチがランダム選択を上回りません。
アクティブな学習手法が好まれるが、モデルは学習に失敗する例の集まりである。
本研究では,アクティブ学習プールにおける集団外乱の減少に伴い,アクティブ学習サンプル効率が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-07-06T00:52:11Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z) - Delving into Inter-Image Invariance for Unsupervised Visual
Representations [108.33534231219464]
画像間不変学習の役割をよりよく理解するための研究を提案する。
オンラインラベルはオフラインラベルよりも早く収束する。
半硬な負のサンプルは、硬い負のサンプルよりも信頼性が高く、偏りがない。
論文 参考訳(メタデータ) (2020-08-26T17:44:23Z) - Unsupervised Deep Metric Learning with Transformed Attention Consistency
and Contrastive Clustering Loss [28.17607283348278]
教師なしのメートル法学習のための既存のアプローチは、入力画像自体の自己超越情報を探索することに焦点を当てている。
我々は、画像を分析する際、人間の目は個々の画像を調べるのではなく、互いに画像を比較することが多いことを観察した。
本研究では,画像間の自己超越情報に基づいてネットワークを学習する,教師なし深度学習のための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2020-08-10T19:33:47Z) - On Mutual Information in Contrastive Learning for Visual Representations [19.136685699971864]
視覚における「対照的」学習アルゴリズムは、伝達タスクにおいて非常によく機能する表現を学ぶために示されている。
このアルゴリズムの族は、画像の2つ以上の「ビュー」間の相互情報の低境界を最大化する。
負のサンプルとビューの選択は、これらのアルゴリズムの成功に不可欠である。
論文 参考訳(メタデータ) (2020-05-27T04:21:53Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。