論文の概要: Fast reconstruction-based ROI triggering via anomaly detection in the CYGNO optical TPC
- arxiv url: http://arxiv.org/abs/2512.24290v1
- Date: Tue, 30 Dec 2025 15:28:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.414575
- Title: Fast reconstruction-based ROI triggering via anomaly detection in the CYGNO optical TPC
- Title(参考訳): CYGNO光TPCにおける異常検出による高速再構成型ROIトリガ
- Authors: F. D. Amaro, R. Antonietti, E. Baracchini, L. Benussi, C. Capoccia, M. Caponero, L. G. M. de Carvalho, G. Cavoto, I. A. Costa, A. Croce, M. D'Astolfo, G. D'Imperio, G. Dho, E. Di Marco, J. M. F. dos Santos, D. Fiorina, F. Iacoangeli, Z. Islam, E. Kemp, H. P. Lima, G. Maccarrone, R. D. P. Mano, D. J. G. Marques, G. Mazzitelli, P. Meloni, A. Messina, V. Monno, C. M. B. Monteiro, R. A. Nobrega, G. M. Oppedisano, I. F. Pains, E. Paoletti, F. Petrucci, S. Piacentini, D. Pierluigi, D. Pinci, F. Renga, A. Russo, G. Saviano, P. A. O. C. Silva, N. J. Spooner, R. Tesauro, S. Tomassini, D. Tozzi,
- Abstract要約: 高速な関心領域抽出のための教師なし・再構成に基づく異常検出戦略を提案する。
学習目的のみが異なる2つの台座学習オートエンコーダ構成を比較した。
最良の構成は、画像領域を破棄する(97.8 +/-0.1)%で再構成された信号強度の(93.0 +/-0.2)%を保持し、コンシューマGPUでは1フレームあたり約25msである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optical-readout Time Projection Chambers (TPCs) produce megapixel-scale images whose fine-grained topological information is essential for rare-event searches, but whose size challenges real-time data selection. We present an unsupervised, reconstruction-based anomaly-detection strategy for fast Region-of-Interest (ROI) extraction that operates directly on minimally processed camera frames. A convolutional autoencoder trained exclusively on pedestal images learns the detector noise morphology without labels, simulation, or fine-grained calibration. Applied to standard data-taking frames, localized reconstruction residuals identify particle-induced structures, from which compact ROIs are extracted via thresholding and spatial clustering. Using real data from the CYGNO optical TPC prototype, we compare two pedestal-trained autoencoder configurations that differ only in their training objective, enabling a controlled study of its impact. The best configuration retains (93.0 +/- 0.2)% of reconstructed signal intensity while discarding (97.8 +/- 0.1)% of the image area, with an inference time of approximately 25 ms per frame on a consumer GPU. The results demonstrate that careful design of the training objective is critical for effective reconstruction-based anomaly detection and that pedestal-trained autoencoders provide a transparent and detector-agnostic baseline for online data reduction in optical TPCs.
- Abstract(参考訳): 光読み取りタイムプロジェクションチャンバ(TPC)は、希少な時間探索には微粒なトポロジ情報を必須とするメガピクセルスケールの画像を生成するが、そのサイズはリアルタイムデータ選択に挑戦する。
我々は、最小処理のカメラフレーム上で直接動作する高速なROI抽出のための教師なし再構成に基づく異常検出戦略を提案する。
台座画像のみに特化して訓練された畳み込みオートエンコーダは、ラベル、シミュレーション、きめ細かいキャリブレーションなしで検出器ノイズ形態を学習する。
標準データ取得フレームに適用すると、局所的再構成残差は粒子誘起構造を識別し、そこからしきい値と空間クラスタリングによってコンパクトROIを抽出する。
CYGNO光TPCプロトタイプの実際のデータを用いて、トレーニング目的のみが異なる2つの台座学習オートエンコーダ構成を比較し、その影響を制御した研究を可能にする。
最良の構成は、画像領域を破棄する(97.8 +/-0.1)%で再構成された信号強度の(93.0 +/-0.2)%を保持し、コンシューマGPUでは1フレームあたり約25msの推論時間である。
その結果, トレーニング対象の注意深い設計は, 効果的な再構成に基づく異常検出に重要であり, 台座学習型オートエンコーダは, 光TPCにおけるオンラインデータ削減のための透明かつ検出不能なベースラインを提供することを示した。
関連論文リスト
- IrisNet: Infrared Image Status Awareness Meta Decoder for Infrared Small Targets Detection [92.56025546608699]
IrisNetは、入力赤外線画像ステータスに検出戦略を適用する、新しいメタ学習フレームワークである。
提案手法は,赤外線画像特徴量とデコーダパラメータ全体の動的マッピングを確立する。
NUDT-SIRST、NUAA-SIRST、IRSTD-1Kデータセットの実験は、我々のIrisNetの優位性を示している。
論文 参考訳(メタデータ) (2025-11-25T13:53:54Z) - Accelerating 3D Photoacoustic Computed Tomography with End-to-End Physics-Aware Neural Operators [74.65171736966131]
光音響計算トモグラフィ(PACT)は、光コントラストと超音波分解能を組み合わせることで、光拡散限界を超える深部像を実現する。
現在の実装では、高密度トランスデューサアレイと長い取得時間を必要とし、臨床翻訳を制限している。
本研究では,センサ計測からボリューム再構成まで,逆音響マッピングを直接学習する物理認識モデルであるPanoを紹介する。
論文 参考訳(メタデータ) (2025-09-11T23:12:55Z) - It's Not the Target, It's the Background: Rethinking Infrared Small Target Detection via Deep Patch-Free Low-Rank Representations [5.326302374594885]
本稿では、LRRNetと呼ばれる新しいエンドツーエンドIRSTDフレームワークを提案する。
乱れシーンの物理的圧縮性に着想を得て,本手法は圧縮・再構成・減算パラダイムを採用する。
複数の公開データセットの実験により、LRRNetは検出精度、堅牢性、計算効率の点で38の最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-06-12T07:24:45Z) - Masked Autoencoder Self Pre-Training for Defect Detection in Microelectronics [0.7456526005219319]
マイクロエレクトロニクスにおける欠陥検出のための資源効率の高いビジョントランス (ViT) 事前学習フレームワークを提案する。
我々は,1万枚未満の走査型超音波顕微鏡(SAM)画像を用いて,事前学習と欠陥検出を行う。
論文 参考訳(メタデータ) (2025-04-14T09:25:50Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Spatiotemporal Attention-based Semantic Compression for Real-time Video
Recognition [117.98023585449808]
本稿では,各フレームにおけるフレームと画素の重要性を評価するために,時間的注意に基づくオートエンコーダ(STAE)アーキテクチャを提案する。
我々は3D-2D CNNを組み合わせた軽量デコーダを開発し、欠落した情報を再構成する。
実験の結果,VT_STAEはビデオデータセットH51を,5%の精度で104倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2023-05-22T07:47:27Z) - Improving the Timing Resolution of Positron Emission Tomography
Detectors Using Boosted Learning -- A Residual Physics Approach [0.4999814847776097]
本研究は,機械学習(ML)と残差物理を用いた検出器最適化の新しい多用途手法を提案する。
ポジトロン・エミッション・トモグラフィー (PET) の概念を適用し, 一致時間分解能(CTR)の向上を目的とした。
臨床的に有意な19mmの検出器ではCTRを有意に改善し(20%以上)、185 ps (450-550 keV) のCTRに到達した。
論文 参考訳(メタデータ) (2023-02-03T12:10:24Z) - A Deep Learning Approach for SAR Tomographic Imaging of Forested Areas [10.477070348391079]
我々は,1つのフィードフォワードパスでトモグラフィインバージョンを実行するために,軽量ニューラルネットワークをトレーニング可能であることを示す。
我々は、シミュレーションデータを用いてエンコーダ・デコーダネットワークを訓練し、実LバンドとPバンドのデータに基づいてその手法を検証する。
論文 参考訳(メタデータ) (2023-01-20T14:34:03Z) - A parameter refinement method for Ptychography based on Deep Learning
concepts [55.41644538483948]
伝播距離、位置誤差、部分的コヒーレンスにおける粗いパラメトリゼーションは、しばしば実験の生存性を脅かす。
最新のDeep Learningフレームワークは、セットアップの不整合を自律的に補正するために使用され、ポチコグラフィーの再構築の質が向上する。
我々は,elettra シンクロトロン施設のツインミックビームラインで取得した合成データセットと実データの両方でシステムをテストした。
論文 参考訳(メタデータ) (2021-05-18T10:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。