論文の概要: jBOT: Semantic Jet Representation Clustering Emerges from Self-Distillation
- arxiv url: http://arxiv.org/abs/2601.11719v2
- Date: Wed, 21 Jan 2026 04:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 14:57:00.058584
- Title: jBOT: Semantic Jet Representation Clustering Emerges from Self-Distillation
- Title(参考訳): jBOT:Semantic Jet Representation Clustering Emerges from Self-Distillation
- Authors: Ho Fung Tsoi, Dylan Rankin,
- Abstract要約: jBOTはCERN大型ハドロン衝突型加速器からのジェットデータに対する自己蒸留に基づく事前学習法である。
ラベルなしジェットの事前学習が表現空間における創発的意味クラスクラスタリングにつながることを観察する。
- 参考スコア(独自算出の注目度): 0.008652091899164643
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning is a powerful pre-training method for learning feature representations without labels, which often capture generic underlying semantics from the data and can later be fine-tuned for downstream tasks. In this work, we introduce jBOT, a pre-training method based on self-distillation for jet data from the CERN Large Hadron Collider, which combines local particle-level distillation with global jet-level distillation to learn jet representations that support downstream tasks such as anomaly detection and classification. We observe that pre-training on unlabeled jets leads to emergent semantic class clustering in the representation space. The clustering in the frozen embedding, when pre-trained on background jets only, enables anomaly detection via simple distance-based metrics, and the learned embedding can be fine-tuned for classification with improved performance compared to supervised models trained from scratch.
- Abstract(参考訳): 自己教師付き学習は、ラベルなしで特徴表現を学習するための強力な事前学習方法であり、しばしばデータからジェネリックなセマンティクスをキャプチャし、後に下流タスクのために微調整することができる。
本研究では,局所粒子レベルの蒸留とグローバルジェットレベルの蒸留を組み合わせたCERN大型ハドロン衝突型加速器からのジェットデータに対する自己蒸留に基づく事前学習手法であるjBOTを導入し,異常検出や分類などの下流タスクを支援するジェット表現を学習する。
ラベルなしジェットの事前学習が表現空間における創発的意味クラスクラスタリングにつながることを観察する。
冷凍埋込みにおけるクラスタリングは、バックグラウンドジェットのみに事前トレーニングされた場合、単純な距離ベースメトリクスによる異常検出を可能にし、学習された埋込みは、スクラッチから訓練された教師付きモデルと比較して、より優れた性能で分類するために微調整することができる。
関連論文リスト
- CountingDINO: A Training-free Pipeline for Class-Agnostic Counting using Unsupervised Backbones [7.717986156838291]
CAC(Class-Agnostic counting)は、事前に定義されたカテゴリに制限されることなく、画像内のオブジェクト数を推定することを目的としている。
現在のCAC法はトレーニングのためにラベル付きデータに大きく依存している。
初となるCACフレームワークであるCountingDINOを紹介する。
論文 参考訳(メタデータ) (2025-04-23T09:48:08Z) - Self-Supervised Pre-Training Boosts Semantic Scene Segmentation on LiDAR
Data [0.0]
本稿では,Barlow Twins を用いた自己教師型エンコーダを訓練し,セマンティックシーンセグメンテーションのタスクにおいて,事前学習ネットワークとして使用することを提案する。
実験の結果,教師なし事前学習は教師付きタスクの微調整によって性能が向上することが示された。
論文 参考訳(メタデータ) (2023-09-05T11:29:30Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Semi-Supervised Temporal Action Detection with Proposal-Free Masking [134.26292288193298]
PropOsal-free Temporal mask (SPOT) に基づく新しい半教師付き時間行動検出モデルを提案する。
SPOTは最先端の代替品よりも優れている。
論文 参考訳(メタデータ) (2022-07-14T16:58:47Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。