論文の概要: Contrastive Learning for OOD in Object detection
- arxiv url: http://arxiv.org/abs/2208.06083v1
- Date: Fri, 12 Aug 2022 01:51:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:24:25.168820
- Title: Contrastive Learning for OOD in Object detection
- Title(参考訳): 物体検出におけるOODのコントラスト学習
- Authors: Rishab Balasubramanian, Rupashree Dey, Kunal Rathore
- Abstract要約: コントラスト学習は、一般的に自己指導型学習に適用される。
大規模なバッチサイズとメモリバンクは、トレーニングを難しく、遅くしました。
その結果,画像分類とオブジェクト検出において,教師付きコントラスト学習に匹敵する結果が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contrastive learning is commonly applied to self-supervised learning, and has
been shown to outperform traditional approaches such as the triplet loss and
N-pair loss. However, the requirement of large batch sizes and memory banks has
made it difficult and slow to train. Recently, Supervised Contrasative
approaches have been developed to overcome these problems. They focus more on
learning a good representation for each class individually, or between a
cluster of classes. In this work we attempt to rank classes based on similarity
using a user-defined ranking, to learn an efficient representation between all
classes. We observe how incorporating human bias into the learning process
could improve learning representations in the parameter space. We show that our
results are comparable to Supervised Contrastive Learning for image
classification and object detection, and discuss it's shortcomings in OOD
Detection
- Abstract(参考訳): コントラスト学習は、一般的に自己教師付き学習に適用され、三重項損失やnペア損失のような従来のアプローチよりも優れていることが示されている。
しかし、大規模なバッチサイズとメモリバンクの要求により、トレーニングが難しく、遅くなっている。
近年,これらの問題を克服するために,スーパービジョンコントラストアプローチが開発されている。
個々のクラス、あるいはクラスのクラスタ間で、優れた表現を学ぶことに集中しています。
本研究では,ユーザ定義のランキングを用いて類似度に基づいてクラスをランク付けし,すべてのクラス間の効率的な表現を学習する。
学習過程に人間のバイアスを組み込むことで,パラメータ空間における学習表現が向上すると考えられる。
我々は,画像分類とオブジェクト検出において,この結果が教師付きコントラスト学習と同等であることを示し,OOD検出の欠点について議論する。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Non-contrastive representation learning for intervals from well logs [58.70164460091879]
石油・ガス産業における表現学習問題は、ログデータに基づく表現を一定間隔で提供するモデルを構築することを目的としている。
可能なアプローチの1つは、自己教師付き学習(SSL)である。
私たちは、よくログするデータのための非コントラストSSLを最初に導入しました。
論文 参考訳(メタデータ) (2022-09-28T13:27:10Z) - Contrastive Learning for Object Detection [0.0]
我々は,その類似性に基づいて,ランキングクラスによる教師付きコントラスト学習の改善を図る。
人間の偏見(ランク付けの形で)が学習した表現に与える影響を観察する。
論文 参考訳(メタデータ) (2022-08-12T02:02:23Z) - Fair Contrastive Learning for Facial Attribute Classification [25.436462696033846]
公正な視覚表現学習のためのFair Supervised Contrastive Loss (FSCL)を提案する。
本稿では,教師付きコントラスト学習による不公平性を初めて分析する。
提案手法はデータバイアスの強度に頑健であり,不完全な教師付き設定で効果的に機能する。
論文 参考訳(メタデータ) (2022-03-30T11:16:18Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z) - Hard Negative Mixing for Contrastive Learning [29.91220669060252]
我々は、コントラスト学習の重要な側面、すなわちハードネガティブの影響は、これまで無視されてきたと論じている。
計算オーバーヘッドを最小限に抑えながら、オンザフライで計算できる機能レベルでのハードネガティブな混合戦略を提案する。
論文 参考訳(メタデータ) (2020-10-02T14:34:58Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。