論文の概要: Contrastive Learning for OOD in Object detection
- arxiv url: http://arxiv.org/abs/2208.06083v1
- Date: Fri, 12 Aug 2022 01:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:24:25.168820
- Title: Contrastive Learning for OOD in Object detection
- Title(参考訳): 物体検出におけるOODのコントラスト学習
- Authors: Rishab Balasubramanian, Rupashree Dey, Kunal Rathore
- Abstract要約: コントラスト学習は、一般的に自己指導型学習に適用される。
大規模なバッチサイズとメモリバンクは、トレーニングを難しく、遅くしました。
その結果,画像分類とオブジェクト検出において,教師付きコントラスト学習に匹敵する結果が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning is commonly applied to self-supervised learning, and has
been shown to outperform traditional approaches such as the triplet loss and
N-pair loss. However, the requirement of large batch sizes and memory banks has
made it difficult and slow to train. Recently, Supervised Contrasative
approaches have been developed to overcome these problems. They focus more on
learning a good representation for each class individually, or between a
cluster of classes. In this work we attempt to rank classes based on similarity
using a user-defined ranking, to learn an efficient representation between all
classes. We observe how incorporating human bias into the learning process
could improve learning representations in the parameter space. We show that our
results are comparable to Supervised Contrastive Learning for image
classification and object detection, and discuss it's shortcomings in OOD
Detection
- Abstract(参考訳): コントラスト学習は、一般的に自己教師付き学習に適用され、三重項損失やnペア損失のような従来のアプローチよりも優れていることが示されている。
しかし、大規模なバッチサイズとメモリバンクの要求により、トレーニングが難しく、遅くなっている。
近年,これらの問題を克服するために,スーパービジョンコントラストアプローチが開発されている。
個々のクラス、あるいはクラスのクラスタ間で、優れた表現を学ぶことに集中しています。
本研究では,ユーザ定義のランキングを用いて類似度に基づいてクラスをランク付けし,すべてのクラス間の効率的な表現を学習する。
学習過程に人間のバイアスを組み込むことで,パラメータ空間における学習表現が向上すると考えられる。
我々は,画像分類とオブジェクト検出において,この結果が教師付きコントラスト学習と同等であることを示し,OOD検出の欠点について議論する。
関連論文リスト
- Non-contrastive representation learning for intervals from well logs [58.70164460091879]
石油・ガス産業における表現学習問題は、ログデータに基づく表現を一定間隔で提供するモデルを構築することを目的としている。
可能なアプローチの1つは、自己教師付き学習(SSL)である。
私たちは、よくログするデータのための非コントラストSSLを最初に導入しました。
論文 参考訳(メタデータ) (2022-09-28T13:27:10Z) - Contrastive Learning for Object Detection [0.0]
我々は,その類似性に基づいて,ランキングクラスによる教師付きコントラスト学習の改善を図る。
人間の偏見(ランク付けの形で)が学習した表現に与える影響を観察する。
論文 参考訳(メタデータ) (2022-08-12T02:02:23Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Incremental False Negative Detection for Contrastive Learning [95.68120675114878]
本稿では,自己指導型コントラスト学習のための新たな偽陰性検出手法を提案する。
対照的な学習では、検出された偽陰性を明示的に除去する2つの戦略について議論する。
提案手法は,制限された計算内での複数のベンチマークにおいて,他の自己教師付きコントラスト学習フレームワークよりも優れる。
論文 参考訳(メタデータ) (2021-06-07T15:29:14Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。