論文の概要: Contrastive pretraining for semantic segmentation is robust to noisy
positive pairs
- arxiv url: http://arxiv.org/abs/2211.13756v1
- Date: Thu, 24 Nov 2022 18:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 16:44:15.182876
- Title: Contrastive pretraining for semantic segmentation is robust to noisy
positive pairs
- Title(参考訳): セマンティクスセグメンテーションのためのコントラストプリトレーニングは雑音の正のペアに対してロバストである
- Authors: Sebastian Gerard (KTH Royal Institute of Technology, Stockholm,
Sweden), Josephine Sullivan (KTH Royal Institute of Technology, Stockholm,
Sweden)
- Abstract要約: 対照的学習のドメイン固有の変種は、2つの異なる画像から正のペアを構成することができる。
下流のセマンティックセグメンテーションはノイズの多いペアに対して堅牢か、あるいはそれらから恩恵を受けるかのどちらかである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain-specific variants of contrastive learning can construct positive pairs
from two distinct images, as opposed to augmenting the same image twice. Unlike
in traditional contrastive methods, this can result in positive pairs not
matching perfectly. Similar to false negative pairs, this could impede model
performance. Surprisingly, we find that downstream semantic segmentation is
either robust to the noisy pairs or even benefits from them. The experiments
are conducted on the remote sensing dataset xBD, and a synthetic segmentation
dataset, on which we have full control over the noise parameters. As a result,
practitioners should be able to use such domain-specific contrastive methods
without having to filter their positive pairs beforehand.
- Abstract(参考訳): 対照的学習のドメイン固有の変種は、2つの異なる画像から正のペアを構築することができる。
従来の対比法とは異なり、正の対は完全一致しない。
偽陰対と同様に、モデルの性能を阻害する可能性がある。
驚いたことに、下流のセマンティクスセグメンテーションはノイズの多いペアに対して堅牢であるか、あるいはそれらからのメリットさえある。
実験はリモートセンシングデータセットxbdと合成セグメンテーションデータセットを用いて行われ,ノイズパラメータを完全に制御した。
結果として、実践者は事前に正のペアをフィルターすることなく、そのようなドメイン固有のコントラストメソッドを使用できるべきである。
関連論文リスト
- Rethinking Positive Pairs in Contrastive Learning [19.149235307036324]
視覚表現のための普遍的なコントラスト学習フレームワークであるHydraについて述べる。
このアプローチはIN1Kを用いて検証され、1Kの多様なクラスが500,500対からなる。
我々の研究は、任意のペアの共通の特徴を学習することの価値を強調し、弱い関係を持つサンプルペアに対する対照的な学習手法の適用性を広げる可能性がある。
論文 参考訳(メタデータ) (2024-10-23T18:07:18Z) - Semantic-aware Contrastive Learning for More Accurate Semantic Parsing [32.74456368167872]
そこで本研究では,意味表現の微粒化を学習できる意味認識型コントラスト学習アルゴリズムを提案する。
2つの標準データセットの実験により、我々の手法はMLEベースラインよりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2023-01-19T07:04:32Z) - Learning by Sorting: Self-supervised Learning with Group Ordering
Constraints [75.89238437237445]
本稿では,対照学習目標である群順序制約(GroCo)の新たなバリエーションを提案する。
正の対と負の対の距離をソートし、正の対が負の対よりも多くの距離を持つかに基づいてそれぞれの損失を計算するという考え方を利用しており、したがって正しく順序付けされていない。
各種自己教師付き学習ベンチマークの定式化について検討し、バニラのコントラスト学習と比較して結果が向上するだけでなく、k-NNの性能において、線形探索や性能向上において同等の手法と競合する性能を示すことを示す。
論文 参考訳(メタデータ) (2023-01-05T11:17:55Z) - MarginNCE: Robust Sound Localization with a Negative Margin [23.908770938403503]
本研究の目的は,自己教師型アプローチによる視覚シーンにおける音源のローカライズである。
コントラスト学習において、より厳密な決定境界を用いることで、音源定位における雑音対応の効果を軽減できることを示す。
論文 参考訳(メタデータ) (2022-11-03T16:44:14Z) - Non-contrastive representation learning for intervals from well logs [58.70164460091879]
石油・ガス産業における表現学習問題は、ログデータに基づく表現を一定間隔で提供するモデルを構築することを目的としている。
可能なアプローチの1つは、自己教師付き学習(SSL)である。
私たちは、よくログするデータのための非コントラストSSLを最初に導入しました。
論文 参考訳(メタデータ) (2022-09-28T13:27:10Z) - Contrasting quadratic assignments for set-based representation learning [5.142415132534397]
コントラスト学習の標準的なアプローチは、データの異なるビュー間の合意を最大化することです。
本研究では、個々のペアを考えるアプローチは、セット内およびセット間類似性の両方を考慮できないことに留意する。
我々は、オブジェクトを集合として対比することに焦点をあてて、個々のオブジェクトの対を対比する以上のことを提案する。
論文 参考訳(メタデータ) (2022-05-31T14:14:36Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - Learning Sound Localization Better From Semantically Similar Samples [79.47083330766002]
既存のオーディオ・ヴィジュアル・ワークでは、正のソースから対応するオーディオ・ヴィジュアル・ペアを割り当て、ランダムに一致しないペアを負のソースに割り当てることで、コントラスト学習を採用している。
私たちの重要な貢献は、ハードポジトリが対応するペアに同様の応答マップを提供することを示すことです。
本稿では,VGG-SSおよびSoundNet-Flickrテストセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-02-07T08:53:55Z) - Robust Contrastive Learning against Noisy Views [79.71880076439297]
ノイズの多い視点に対して頑健な新しいコントラスト損失関数を提案する。
提案手法は,最新の画像,ビデオ,グラフのコントラスト学習ベンチマークに対して一貫した改善を提供する。
論文 参考訳(メタデータ) (2022-01-12T05:24:29Z) - Provable Guarantees for Self-Supervised Deep Learning with Spectral
Contrastive Loss [72.62029620566925]
自己教師型学習の最近の研究は、対照的な学習パラダイムを頼りに、最先端の技術の進歩を遂げている。
我々の研究は、正の対の条件的独立性を仮定することなく、対照的な学習を分析する。
本稿では,人口増分グラフ上でスペクトル分解を行う損失を提案し,コントラスト学習目的として簡潔に記述することができる。
論文 参考訳(メタデータ) (2021-06-08T07:41:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。