論文の概要: Detecting optical transients using artificial neural networks and
reference images from different surveys
- arxiv url: http://arxiv.org/abs/2009.14614v1
- Date: Mon, 28 Sep 2020 22:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 22:50:03.452244
- Title: Detecting optical transients using artificial neural networks and
reference images from different surveys
- Title(参考訳): ニューラルネットワークと異なるサーベイからの参照画像を用いた光トランジェント検出
- Authors: Katarzyna Ward\k{e}ga, Adam Zadro\.zny, Martin Beroiz, Richard
Camuccio and Mario C. D\'iaz
- Abstract要約: 人工ニューラルネットワークを用いてこれらのトランジェントを検出する手法を提案する。
1つの画像は、潜在的な過渡期が存在する可能性があるエポックに対応しており、もう1つは初期のエポックの参照画像である。
実画像データから生成されたサンプルを用いて、シミュレーションされたサンプルに基づいて畳み込みニューラルネットワークと高密度層ネットワークを訓練し、トレーニングされたネットワークを試験した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To search for optical counterparts to gravitational waves, it is crucial to
develop an efficient follow-up method that allows for both a quick telescopic
scan of the event localization region and search through the resulting image
data for plausible optical transients. We present a method to detect these
transients based on an artificial neural network. We describe the architecture
of two networks capable of comparing images of the same part of the sky taken
by different telescopes. One image corresponds to the epoch in which a
potential transient could exist; the other is a reference image of an earlier
epoch. We use data obtained by the Dr. Cristina V. Torres Memorial Astronomical
Observatory and archival reference images from the Sloan Digital Sky Survey. We
trained a convolutional neural network and a dense layer network on simulated
source samples and tested the trained networks on samples created from real
image data. Autonomous detection methods replace the standard process of
detecting transients, which is normally achieved by source extraction of a
difference image followed by human inspection of the detected candidates.
Replacing the human inspection component with an entirely autonomous method
would allow for a rapid and automatic follow-up of interesting targets of
opportunity. The method will be further tested on telescopes participating in
the Transient Optical Robotic Observatory of the South Collaboration.
- Abstract(参考訳): 重力波に対する光学的対応を探索するためには、事象の局所化領域を高速で遠隔観察し、その結果の可視光トランジェントの画像データを探索できる効率的な追従法を開発することが不可欠である。
人工ニューラルネットワークを用いてこれらのトランジェントを検出する手法を提案する。
異なる望遠鏡で撮影した空の同じ部分の画像を比較できる2つのネットワークのアーキテクチャについて述べる。
1つの画像は、潜在的な過渡期が存在する可能性があるエポックに対応しており、もう1つは初期のエポックの参照画像である。
我々は、Cristina V. Torres記念天文台が取得したデータと、Sloan Digital Sky Surveyのアーカイブ参照画像を用いている。
シミュレーションデータを用いて畳み込みニューラルネットワークと高密度層ネットワークを訓練し,実画像データから作成したサンプルを用いてトレーニングしたネットワークをテストした。
自律的検出法は、通常、差分画像のソース抽出と、検出された候補の人間の検査によって達成される、トランジェント検出の標準的なプロセスを置き換える。
人間の検査コンポーネントを完全に自律的な方法で置き換えることで、興味深い機会のターゲットを素早く自動で追跡することができる。
この方法は、南方協力の過渡光ロボット観測所に参加する望遠鏡でさらにテストされる。
関連論文リスト
- Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Real-Time Model-Based Quantitative Ultrasound and Radar [65.268245109828]
本稿では,波動伝搬の物理モデルに基づくニューラルネットワークを提案し,受信信号と物理特性の関係を定義した。
我々のネットワークは、複雑で現実的なシナリオのために、1秒未満で複数の物理的特性を再構築することができる。
論文 参考訳(メタデータ) (2024-02-16T09:09:16Z) - UAVs and Neural Networks for search and rescue missions [0.0]
無人航空機(UAV)が捉えた空中画像において,車,人,火などの興味の対象を検出する方法を提案する。
これを実現するために,ニューラルネットワークを用いて教師あり学習のためのデータセットを作成する。
論文 参考訳(メタデータ) (2023-10-09T08:27:35Z) - Combining multi-spectral data with statistical and deep-learning models
for improved exoplanet detection in direct imaging at high contrast [39.90150176899222]
太陽系外惑星の信号は、いくつかの観測と専用の検出アルゴリズムを組み合わせることでのみ識別できる。
我々は,観測結果から直接,ニュアンスの空間的,時間的,スペクトル的特性のモデルを学ぶ。
その後、畳み込みニューラルネットワーク(CNN)が教師ありの方法で訓練され、合成源の残像を検出する。
論文 参考訳(メタデータ) (2023-06-21T13:42:07Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Multi-modal Retinal Image Registration Using a Keypoint-Based Vessel
Structure Aligning Network [9.988115865060589]
マルチモーダル網膜画像登録のためのエンドツーエンドのトレーニング可能なディープラーニング手法を提案する。
本手法は,キーポイントの検出と記述のために,容器構造から畳み込み特性を抽出する。
キーポイント検出・記述ネットワークとグラフニューラルネットワークは、自己教師された方法で共同で訓練される。
論文 参考訳(メタデータ) (2022-07-21T14:36:51Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - AS-Net: Fast Photoacoustic Reconstruction with Multi-feature Fusion from
Sparse Data [1.7237160821929758]
光音響イメージングは、従来の光学イメージング技術よりもはるかに大きな深さでの光吸収の高コントラスト画像を得ることができる。
本稿では,スパースPA生データをニューラルネットワークに適したものにするために,新しい信号処理手法を提案する。
次に,多機能核融合を用いたPA再構成のためのアテンションステアリングネットワーク(AS-Net)を提案する。
論文 参考訳(メタデータ) (2021-01-22T03:49:30Z) - Real-time sparse-sampled Ptychographic imaging through deep neural
networks [3.3351024234383946]
データの取得と解析の両方に制約を課す複雑な逆問題の解法により、画像再構成を実現する。
本稿では,深部畳み込みニューラルネットワークに基づく画像再構成問題の解法として,PtychoNNを提案する。
論文 参考訳(メタデータ) (2020-04-15T23:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。