論文の概要: The Deep Neural Network based Photometry Framework for Wide Field Small
Aperture Telescopes
- arxiv url: http://arxiv.org/abs/2106.14349v1
- Date: Mon, 28 Jun 2021 00:34:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 01:17:22.031144
- Title: The Deep Neural Network based Photometry Framework for Wide Field Small
Aperture Telescopes
- Title(参考訳): 深層ニューラルネットワークを用いた広視野小開口望遠鏡用光計測フレームワーク
- Authors: Peng Jia, Yongyang Sun, Qiang Liu
- Abstract要約: 近年、天体の検出と分類のためにディープニューラルネットワークが提案されている。
我々は、深層ニューラルネットワークによる天体目標検出フレームワークの能力を拡張し、光度測定や分光法に適したものにする。
私たちのニューラルネットワークは、古典的手法よりも光度測定の性能が優れていることが分かりました。
- 参考スコア(独自算出の注目度): 8.647095045358775
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Wide field small aperture telescopes (WFSATs) are mainly used to obtain
scientific information of point--like and streak--like celestial objects.
However, qualities of images obtained by WFSATs are seriously affected by the
background noise and variable point spread functions. Developing high speed and
high efficiency data processing method is of great importance for further
scientific research. In recent years, deep neural networks have been proposed
for detection and classification of celestial objects and have shown better
performance than classical methods. In this paper, we further extend abilities
of the deep neural network based astronomical target detection framework to
make it suitable for photometry and astrometry. We add new branches into the
deep neural network to obtain types, magnitudes and positions of different
celestial objects at the same time. Tested with simulated data, we find that
our neural network has better performance in photometry than classical methods.
Because photometry and astrometry are regression algorithms, which would obtain
high accuracy measurements instead of rough classification results, the
accuracy of photometry and astrometry results would be affected by different
observation conditions. To solve this problem, we further propose to use
reference stars to train our deep neural network with transfer learning
strategy when observation conditions change. The photometry framework proposed
in this paper could be used as an end--to--end quick data processing framework
for WFSATs, which can further increase response speed and scientific outputs of
WFSATs.
- Abstract(参考訳): 広視野小型開口望遠鏡(WFSAT)は、主に点状およびストリーク状天体の科学的情報を得るために使用される。
しかし,WFSATが取得した画像の品質は,背景雑音や可変点拡散関数の影響を強く受けている。
高速かつ高効率なデータ処理手法の開発は、さらなる科学研究にとって非常に重要である。
近年、深層ニューラルネットワークが天体の検出と分類のために提案されており、従来の手法よりも優れた性能を示している。
本稿では,深層ニューラルネットワークを用いた天文学的ターゲット検出フレームワークの能力をさらに拡張し,測光・天体計測に適合させる。
我々は、異なる天体のタイプ、大きさ、位置を同時に得るために、ディープニューラルネットワークに新しい分岐を追加する。
シミュレーションデータを用いてテストした結果、ニューラルネットワークは従来の手法よりも優れた光量測定性能を持つことがわかった。
光度とアストロメトリーは回帰アルゴリズムであり、粗い分類結果の代わりに高精度な測定値が得られるため、光度とアストロメトリーの精度は異なる観測条件によって影響を受ける。
この問題を解決するため,観測条件が変化したときには,参照星を用いて深部ニューラルネットワークを伝達学習戦略で訓練することを提案する。
本稿では、WFSATの応答速度と科学的出力をさらに向上させるために、WFSATのエンドツーエンドのクイックデータ処理フレームワークとして利用することができる。
関連論文リスト
- Real-time gravitational-wave inference for binary neutron stars using machine learning [71.29593576787549]
近似を行なわずに1秒で完全なBNS推論を行う機械学習フレームワークを提案する。
本手法は, (i) 合併前の正確な局所化を提供することにより, (i) 近似低遅延法と比較して, (ii) 局所化精度を$sim30%$で改善すること, (iii) 光度距離, 傾斜, 質量に関する詳細な情報を提供することにより, (i) マルチメーサの観測を向上する。
論文 参考訳(メタデータ) (2024-07-12T18:00:02Z) - Towards Consistent Object Detection via LiDAR-Camera Synergy [17.665362927472973]
物体の位置を点雲と画像の両方で検出できる既存のモデルは存在しない。
本稿では,エンドツーエンドの一貫性オブジェクト検出(COD)アルゴリズムフレームワークを提案する。
本稿では,点雲と画像間の物体相関の精度を評価するために,新しい評価指標である一貫性精度(Consistency Precision)を提案する。
論文 参考訳(メタデータ) (2024-05-02T13:04:26Z) - Detection and Segmentation of Cosmic Objects Based on Adaptive
Thresholding and Back Propagation Neural Network [0.0]
本稿では,適応閾値法(ATM)に基づくセグメンテーションと,BPNNに基づく宇宙物体検出を提案する。
本稿では、ATMとBPNNを用いて天体の分類と検出を行う方法について述べる。
論文 参考訳(メタデータ) (2023-08-02T04:02:46Z) - Semantic Segmentation of Radar Detections using Convolutions on Point
Clouds [59.45414406974091]
本稿では,レーダ検出を点雲に展開する深層学習手法を提案する。
このアルゴリズムは、距離依存クラスタリングと入力点雲の事前処理により、レーダ固有の特性に適応する。
我々のネットワークは、レーダポイント雲のセマンティックセグメンテーションのタスクにおいて、PointNet++に基づく最先端のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-05-22T07:09:35Z) - Cosmology from Galaxy Redshift Surveys with PointNet [65.89809800010927]
宇宙論において、銀河赤方偏移サーベイは、宇宙における位置の置換不変な集まりに類似している。
我々は、ポイントクラウドデータから直接、宇宙パラメータの値を回帰するために、textitPointNetのようなニューラルネットワークを使用します。
我々のPointNetsの実装は、$mathcalO(104) - MathcalO(105)$銀河の入力を一度に分析できるので、この応用の初期の作業は、およそ2桁の精度で改善される。
論文 参考訳(メタデータ) (2022-11-22T15:35:05Z) - Object Detection in Aerial Images with Uncertainty-Aware Graph Network [61.02591506040606]
本稿では,ノードとエッジがオブジェクトによって表現される構造化グラフを用いた,新しい不確実性を考慮したオブジェクト検出フレームワークを提案する。
我々は我々のモデルをオブジェクトDETection(UAGDet)のための不確実性対応グラフネットワークと呼ぶ。
論文 参考訳(メタデータ) (2022-08-23T07:29:03Z) - GPCO: An Unsupervised Green Point Cloud Odometry Method [64.86292006892093]
軽量な点状クラウド・オドメトリー法を提案し, GPCO法と名付けた。
GPCOは、連続点雲スキャンの特徴と一致することによって物体の動きを予測する教師なし学習法である。
GPCOは、モデルサイズが大幅に小さく、トレーニング時間も少ないのに対して、ディープラーニング手法のベンチマークを精度で上回ることが観察された。
論文 参考訳(メタデータ) (2021-12-08T00:24:03Z) - Inferring dark matter substructure with astrometric lensing beyond the
power spectrum [0.0]
そこで我々は,地球規模の暗黒物質による重力レンズのシグネチャの探索手法を提案する。
提案手法は, 暗黒物質群に対する感度が有意に向上したことを示す。
論文 参考訳(メタデータ) (2021-10-04T18:00:00Z) - Point Spread Function Estimation for Wide Field Small Aperture
Telescopes with Deep Neural Networks and Calibration Data [11.909250072362264]
点拡散関数 (PSF) は望遠鏡の状態を反映する。
視界全体の任意の位置におけるPSFの推定は、光学系によって誘導される収差が非常に複雑であるため困難である。
我々は、さらにディープニューラルネットワーク(DNN)に基づくPSFモデリング法を開発し、そのPSF推定への応用を示す。
論文 参考訳(メタデータ) (2020-11-20T07:26:02Z) - A Point-Cloud Deep Learning Framework for Prediction of Fluid Flow
Fields on Irregular Geometries [62.28265459308354]
ネットワークは空間位置とCFD量のエンドツーエンドマッピングを学習する。
断面形状の異なるシリンダーを過ぎる非圧縮層状定常流を考察する。
ネットワークは従来のCFDの数百倍の速さで流れ場を予測する。
論文 参考訳(メタデータ) (2020-10-15T12:15:02Z) - G2L-Net: Global to Local Network for Real-time 6D Pose Estimation with
Embedding Vector Features [39.77987181390717]
本稿では,G2L-Netという新しいリアルタイム6次元オブジェクトポーズ推定フレームワークを提案する。
我々のネットワークは、RGB-D検出の点雲を分割・分散方式で運用している。
G2L-Netは精度と速度の両面で最先端の性能を達成する。
論文 参考訳(メタデータ) (2020-03-24T19:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。