論文の概要: SegLoc: Visual Self-supervised Learning Scheme for Dense Prediction
Tasks of Security Inspection X-ray Images
- arxiv url: http://arxiv.org/abs/2310.08421v3
- Date: Sat, 21 Oct 2023 10:55:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 06:28:39.020098
- Title: SegLoc: Visual Self-supervised Learning Scheme for Dense Prediction
Tasks of Security Inspection X-ray Images
- Title(参考訳): SegLoc: セキュリティ検査X線画像のディエンス予測タスクのための視覚的自己教師型学習スキーム
- Authors: Shervin Halat, Mohammad Rahmati, Ehsan Nazerfard
- Abstract要約: コンピュータビジョンにおける自己教師型学習は、比較的軌道に留まることができない。
本稿では,セキュリティ検査用X線画像の高密度予測タスクを評価する。
我々のモデルは、対照的な学習の最も難しい欠点の1つ、すなわち、クエリの埋め込みの偽陰性なペアに対処することに成功しました。
- 参考スコア(独自算出の注目度): 4.251030047034566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lately, remarkable advancements of artificial intelligence have been
attributed to the integration of self-supervised learning (SSL) scheme. Despite
impressive achievements within natural language processing (NLP), SSL in
computer vision has not been able to stay on track comparatively. Recently,
integration of contrastive learning on top of existing visual SSL models has
established considerable progress, thereby being able to outperform supervised
counterparts. Nevertheless, the improvements were mostly limited to
classification tasks; moreover, few studies have evaluated visual SSL models in
real-world scenarios, while the majority considered datasets containing
class-wise portrait images, notably ImageNet. Thus, here, we have considered
dense prediction tasks on security inspection x-ray images to evaluate our
proposed model Segmentation Localization (SegLoc). Based upon the model
Instance Localization (InsLoc), our model has managed to address one of the
most challenging downsides of contrastive learning, i.e., false negative pairs
of query embeddings. To do so, our pre-training dataset is synthesized by
cutting, transforming, then pasting labeled segments, as foregrounds, from an
already existing labeled dataset (PIDray) onto instances, as backgrounds, of an
unlabeled dataset (SIXray;) further, we fully harness the labels through
integration of the notion, one queue per class, into MoCo-v2 memory bank,
avoiding false negative pairs. Regarding the task in question, our approach has
outperformed random initialization method by 3% to 6%, while having
underperformed supervised initialization, in AR and AP metrics at different IoU
values for 20 to 30 pre-training epochs.
- Abstract(参考訳): 近年、人工知能の顕著な進歩は、ssl(self-supervised learning)方式の統合に起因している。
自然言語処理(NLP)における顕著な成果にもかかわらず、コンピュータビジョンにおけるSSLは、比較的軌道に留まることができなかった。
近年,既存のビジュアルSSLモデル上でのコントラスト学習の統合は大きな進歩を遂げており,教師付きSSLモデルよりも優れています。
それにもかかわらず、改善は主に分類タスクに限定された。さらに、実際のシナリオでビジュアルsslモデルを評価する研究はほとんどないが、大多数はクラス毎のポートレートイメージを含むデータセット、特にimagenetを検討した。
そこで本研究では,セキュリティ検査用X線画像の密集予測タスクについて検討し,提案したモデルのセグメンテーション・ローカライゼーション(SegLoc)を評価する。
インスタンスローカライゼーション(InsLoc)モデルに基づいて、我々のモデルはコントラスト学習の最も難しい欠点の1つ、すなわち、クエリ埋め込みの誤った負ペアに対処しました。
そのために,既存のラベル付きデータセット (pidray) からラベル付きデータセット (6ray;) のインスタンス,すなわちバックグラウンドとしてラベル付きデータセット (pidray) にラベル付きセグメントをカット・変換・ペーストし,前景としてラベル付きセグメントを合成する。
この課題に関して,本手法は,20~30回の事前学習エポックで異なるIoU値のARおよびAP測定値において,教師付き初期化の過小評価を行いながら,ランダム初期化法を3%~6%上回った。
関連論文リスト
- A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models [39.42802115580677]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
論文 参考訳(メタデータ) (2023-09-09T01:57:14Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Multi-Level Contrastive Learning for Dense Prediction Task [59.591755258395594]
本稿では,高密度予測タスクのための領域レベルの特徴表現を効率よく学習するための,MCL(Multi-Level Contrastive Learning for Dense Prediction Task)を提案する。
本手法は, 局所化, スケールの整合性, 認識の3つの要因に動機付けられている。
提案手法は,様々なデータセットにおける最近の最先端の手法よりも有意なマージンを有する。
論文 参考訳(メタデータ) (2023-04-04T17:59:04Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。