論文の概要: Cosmic-CoNN: A Cosmic Ray Detection Deep-Learning Framework, Dataset,
and Toolkit
- arxiv url: http://arxiv.org/abs/2106.14922v1
- Date: Mon, 28 Jun 2021 18:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:21:31.006812
- Title: Cosmic-CoNN: A Cosmic Ray Detection Deep-Learning Framework, Dataset,
and Toolkit
- Title(参考訳): Cosmic-CoNN:cosmic Ray Detection Deep-Learning Framework, Dataset, Toolkit
- Authors: Chengyuan Xu, Curtis McCully, Boning Dong, D. Andrew Howell, Pradeep
Sen
- Abstract要約: 汎用CR検出モデルを生成するためのディープラーニングフレームワークであるCosmic-CoNNを提案する。
我々は、ラス・カンブレス天文台のグローバル望遠鏡ネットワークから数千の画像を活用する、大規模で多様な地上ベースのCRデータセットを構築した。
また、コンソールコマンド、Webベースのアプリケーション、Python APIを含む一連のツールを構築して、天文学者のコミュニティによって広くアクセス可能な、自動で堅牢なCR検出を実現しています。
- 参考スコア(独自算出の注目度): 5.687706040582625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rejecting cosmic rays (CRs) is essential for scientific interpretation of
CCD-captured data, but detecting CRs in single-exposure images has remained
challenging. Conventional CR-detection algorithms require tuning multiple
parameters experimentally making it hard to automate across different
instruments or observation requests. Recent work using deep learning to train
CR-detection models has demonstrated promising results. However,
instrument-specific models suffer from performance loss on images from
ground-based facilities not included in the training data. In this work, we
present Cosmic-CoNN, a deep-learning framework designed to produce generic
CR-detection models. We build a large, diverse ground-based CR dataset
leveraging thousands of images from the Las Cumbres Observatory global
telescope network to produce a generic CR-detection model which achieves a
99.91% true-positive detection rate and maintains over 96.40% true-positive
rates on unseen data from Gemini GMOS-N/S, with a false-positive rate of 0.01%.
Apart from the open-source framework and dataset, we also build a suite of
tools including console commands, a web-based application, and Python APIs to
make automatic, robust CR detection widely accessible by the community of
astronomers.
- Abstract(参考訳): 宇宙線(CR)の排除はCCDキャプチャーデータの科学的解釈に不可欠であるが、単一露光画像におけるCRの検出は依然として困難である。
従来のcr検出アルゴリズムでは、複数のパラメータを実験的にチューニングする必要があるため、さまざまな機器や観測要求の自動化が難しい。
近年のディープラーニングによるCR検出モデルの訓練は有望な結果を示している。
しかし、楽器固有のモデルは、訓練データに含まれない地上設備の画像の性能低下に苦しむ。
本研究では,汎用CR検出モデルを生成するためのディープラーニングフレームワークCosmic-CoNNを提案する。
我々は、Las Cumbres天文台のグローバル望遠鏡ネットワークから数千の画像を利用して、99.91%の真陽性検出率を達成し、Gemini GMOS-N/Sの未確認データに対して96.40%以上の真陽性率を維持する一般的なCR検出モデルを構築する。
オープンソースのフレームワークとデータセットとは別に、私たちはコンソールコマンド、webベースのアプリケーション、python apiを含む一連のツールも構築しています。
関連論文リスト
- SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale
SAR Object Detection [83.21028626585986]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - GenFace: A Large-Scale Fine-Grained Face Forgery Benchmark and Cross
Appearance-Edge Learning [49.93362169016503]
フォトリアリスティック・ジェネレータの急速な進歩は、真の画像と操作された画像の相違がますます不明瞭になっている臨界点に達している。
公開されている顔の偽造データセットはいくつかあるが、偽造顔は主にGANベースの合成技術を用いて生成される。
我々は,大規模で多様できめ細かな高忠実度データセットであるGenFaceを提案し,ディープフェイク検出の進展を促進する。
論文 参考訳(メタデータ) (2024-02-03T03:13:50Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing
Image Segmentation [66.31941110777734]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - Object Size-Driven Design of Convolutional Neural Networks: Virtual Axle
Detection based on Raw Data [0.0]
本稿では,専用軸検出装置を使わずにBWIM(Bridge Weigh-In-Motion)システムのリアルタイム適用を可能にする,軸検出のための新しいアプローチを提案する。
The proposed Virtual Axle Detector with Enhanced Receptive Field (VADER) is independent to bridge type and sensor placement。
スペクトルを入力としてではなく生データを使用することで、パラメータの数を増やすことなく、受容野を拡張できる。
論文 参考訳(メタデータ) (2023-09-04T12:53:54Z) - Diffusion Models for Interferometric Satellite Aperture Radar [73.01013149014865]
確率拡散モデル (Probabilistic Diffusion Models, PDMs) は、最近、非常に有望な生成モデルのクラスとして登場した。
ここでは、PDMを活用して、レーダーベースの衛星画像データセットを複数生成する。
PDMは複雑で現実的な構造を持つ画像を生成することに成功したが、サンプリング時間は依然として問題である。
論文 参考訳(メタデータ) (2023-08-31T16:26:17Z) - A Simulation-Augmented Benchmarking Framework for Automatic RSO Streak
Detection in Single-Frame Space Images [7.457841062817294]
大規模データセットが利用可能な場合、ディープ畳み込みニューラルネットワーク(DCNN)は、オブジェクト検出において優れたパフォーマンスを示している。
RSO検出のための新しいシミュレーション強化ベンチマークフレームワーク(SAB-RSOD)を紹介する。
本フレームワークでは,実空間画像をキャプチャするセンサのハードウェアパラメータを最大限に活用することにより,まず高忠実度RSOシミュレータを開発する。
次に,このシミュレータを用いて宇宙空間に多彩なROSを含む画像を生成し,自動的に注釈を付ける。
論文 参考訳(メタデータ) (2023-04-30T07:00:16Z) - Toward Data-Driven STAP Radar [23.333816677794115]
我々は、時空間適応処理(STAP)レーダーに対するデータ駆動アプローチを特徴付ける。
所定領域に可変強度のターゲットをランダムに配置することにより、受信レーダ信号の豊富なサンプルデータセットを生成する。
この領域内の各データサンプルに対して、ビームフォーマの出力パワーのレンジ、方位、および上昇のヒートマップテンソルを生成する。
空中に浮かぶシナリオでは、動くレーダーは、ビデオに似た、これらのタイムインデクシングされたイメージスタックのシーケンスを生成する。
論文 参考訳(メタデータ) (2022-01-26T02:28:13Z) - Learning to automate cryo-electron microscopy data collection with
Ptolemy [4.6453787256723365]
低温電子顕微鏡(cryo-EM)は、生体高分子の近原・近原子分解能3次元構造を決定する主要な方法として登場した。
現在,高磁化Cryo-EMマイクログラフの収集には,パラメータの入力と手動チューニングが必要である。
そこで我々は,目的のアルゴリズムを用いて,低・中規模のターゲットを自動生成する最初のパイプラインを開発した。
論文 参考訳(メタデータ) (2021-12-01T22:39:28Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。