論文の概要: SegLoc: Novel Visual Self-supervised Learning Scheme for Dense
Prediction Tasks of Security Inspection X-ray Images
- arxiv url: http://arxiv.org/abs/2310.08421v2
- Date: Mon, 16 Oct 2023 13:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 10:17:49.614128
- Title: SegLoc: Novel Visual Self-supervised Learning Scheme for Dense
Prediction Tasks of Security Inspection X-ray Images
- Title(参考訳): SegLoc: セキュリティ検査X線画像の高密度予測タスクのための視覚的自己教師型学習方式
- Authors: Shervin Halat, Mohammad Rahmati, Ehsan Nazerfard
- Abstract要約: コンピュータビジョンにおけるSSLは、比較的軌道に留まることができない。
本研究では,セキュリティX線画像におけるセマンティックセグメンテーションの密集予測タスクについて検討した。
我々のモデルであるSegLocは、対照的な学習の最も難しい欠点の1つ、すなわち、偽陰性な埋め込みのペアに対処することに成功しました。
- 参考スコア(独自算出の注目度): 4.251030047034566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lately, remarkable advancements of artificial intelligence have been
attributed to the integration of self-supervised learning scheme. Despite
impressive achievements within NLP, yet SSL in computer vision has not been
able to stay on track comparatively. Recently, integration of contrastive
learning on top of existing SSL models has established considerable progress in
computer vision through which visual SSL models have outperformed their
supervised counterparts. Nevertheless, most of these improvements were limited
to classification tasks, and also, few works have been dedicated to evaluation
of SSL models in real-world scenarios of computer vision, while the majority of
works are centered around datasets containing class-wise portrait images, most
notably, ImageNet. Consequently, in this work, we have considered dense
prediction task of semantic segmentation in security inspection x-ray images to
evaluate our proposed model Segmentation Localization. Based upon the model
Instance Localization, our model SegLoc has managed to address one of the most
challenging downsides of contrastive learning, i.e., false negative pairs of
query embeddings. In order to do so, in contrast to baseline model InsLoc, our
pretraining dataset is synthesized by cropping, transforming, then pasting
already labeled segments from an available labeled dataset, foregrounds, onto
instances of an unlabeled dataset, backgrounds. In our case, PIDray and SIXray
datasets are considered as labeled and unlabeled datasets, respectively.
Moreover, we fully harness labels by avoiding false negative pairs through
implementing the idea, one queue per class, in MoCo-v2 whereby negative pairs
corresponding to each query are extracted from its corresponding queue within
the memory bank. Our approach has outperformed random initialization by 3% to
6%, while having underperformed supervised initialization.
- Abstract(参考訳): 近年、人工知能の顕著な進歩は、自己監督学習体系の統合によるものである。
NLPの素晴らしい成果にもかかわらず、コンピュータビジョンにおけるSSLは、比較的軌道に留まることができなかった。
近年,既存のSSLモデル上でのコントラスト学習の統合は,視覚的SSLモデルよりも優れた性能を持つコンピュータビジョンにおいて,かなりの進歩を遂げている。
しかしながら、これらの改善のほとんどは分類タスクに限られており、コンピュータビジョンの現実的なシナリオにおけるSSLモデルの評価に特化している作品はほとんどない。
そこで本研究では,セキュリティ検査x線画像における意味セグメンテーションの密集した予測タスクを検討し,提案するモデルセグメンテーションの局在性を評価する。
モデルインスタンスのローカライゼーションに基づいて、我々のモデルseglocは、対照的な学習、すなわちクエリ埋め込みの偽陰性ペアの最も難しい欠点の1つに対処しました。
そのため、ベースラインモデルであるinslocとは対照的に、プリトレーニングデータセットは、利用可能なラベル付きデータセット、フォアグラウンドからラベル付きデータセット、バックグラウンドのインスタンスにラベル付きセグメントを分割、変換、ペーストすることで合成されます。
PIDrayデータセットとSIXrayデータセットはそれぞれラベル付きデータセットとラベルなしデータセットとみなす。
さらに、メモリバンク内の各クエリに対応する負のペアを抽出するMoCo-v2において、クラス毎に1つのキューというアイデアを実装することで、偽の負のペアを避けることでラベルを完全に活用する。
提案手法はランダム初期化を3%から6%に上回り,教師付き初期化は下方修正した。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Hierarchical Self-Supervised Learning for Medical Image Segmentation
Based on Multi-Domain Data Aggregation [23.616336382437275]
医用画像分割のための階層型自己監督学習(HSSL)を提案する。
まず、いくつかの医学的課題からデータセットを収集し、自己教師付きでネットワークを事前訓練し、最後にラベル付きデータに微調整します。
スクラッチから学習するのに比べ、新しい手法は様々なタスクにおいてより良いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2021-07-10T18:17:57Z) - Remote Sensing Image Scene Classification with Self-Supervised Paradigm
under Limited Labeled Samples [11.025191332244919]
我々は,大規模なラベル付きデータからRSIシーン分類のための高性能事前学習モデルを得るために,新たな自己教師付き学習(SSL)機構を導入する。
一般的な3つのRSIシーン分類データセットの実験により、この新たな学習パラダイムは、従来の支配的なImageNet事前学習モデルよりも優れていることが示された。
我々の研究から得られた知見は、リモートセンシングコミュニティにおけるSSLの発展を促進するのに役立ちます。
論文 参考訳(メタデータ) (2020-10-02T09:27:19Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。