論文の概要: MODEL&CO: Exoplanet detection in angular differential imaging by learning across multiple observations
- arxiv url: http://arxiv.org/abs/2409.17178v1
- Date: Mon, 23 Sep 2024 09:22:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 16:40:36.858547
- Title: MODEL&CO: Exoplanet detection in angular differential imaging by learning across multiple observations
- Title(参考訳): MODEL&CO:複数の観測から学習した角微分画像における外惑星検出
- Authors: Théo Bodrito, Olivier Flasseur, Julien Mairal, Jean Ponce, Maud Langlois, Anne-Marie Lagrange,
- Abstract要約: ほとんどの後処理法は、対象の観測自体から核分裂のモデルを構築している。
本稿では,教師付き深層学習技術を利用して,複数観測のアーカイブからニュアンスモデルを構築することを提案する。
本稿では,提案手法をVLT/SPHERE機器から得られた複数のデータセットに適用し,高精度なリコールトレードオフを示す。
- 参考スコア(独自算出の注目度): 37.845442465099396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Direct imaging of exoplanets is particularly challenging due to the high contrast between the planet and the star luminosities, and their small angular separation. In addition to tailored instrumental facilities implementing adaptive optics and coronagraphy, post-processing methods combining several images recorded in pupil tracking mode are needed to attenuate the nuisances corrupting the signals of interest. Most of these post-processing methods build a model of the nuisances from the target observations themselves, resulting in strongly limited detection sensitivity at short angular separations due to the lack of angular diversity. To address this issue, we propose to build the nuisance model from an archive of multiple observations by leveraging supervised deep learning techniques. The proposed approach casts the detection problem as a reconstruction task and captures the structure of the nuisance from two complementary representations of the data. Unlike methods inspired by reference differential imaging, the proposed model is highly non-linear and does not resort to explicit image-to-image similarity measurements and subtractions. The proposed approach also encompasses statistical modeling of learnable spatial features. The latter is beneficial to improve both the detection sensitivity and the robustness against heterogeneous data. We apply the proposed algorithm to several datasets from the VLT/SPHERE instrument, and demonstrate a superior precision-recall trade-off compared to the PACO algorithm. Interestingly, the gain is especially important when the diversity induced by ADI is the most limited, thus supporting the ability of the proposed approach to learn information across multiple observations.
- Abstract(参考訳): 太陽系外惑星の直接撮像は、惑星と恒星の光度との高コントラストと小さな角分離のために特に困難である。
適応光学とコロナグラフィーを実装した調整された機器施設に加えて,瞳孔追跡モードで記録された複数の画像を組み合わせた後処理手法も必要であり,興味の信号の劣化を抑えることができる。
これらの後処理法の多くは、対象の観測自体から核分裂のモデルを構築し、その結果、角の多様性の欠如による短い角分離における検出感度が強く制限された。
この問題に対処するために,教師付き深層学習技術を活用して,複数観測のアーカイブからニュアンスモデルを構築することを提案する。
提案手法は,検出問題を再構成タスクとして用いて,データの2つの相補的表現からニュアンスの構造をキャプチャする。
基準ディファレンシャルイメージングにインスパイアされた手法とは異なり、提案モデルは非常に非線形であり、明示的な画像間類似度測定やサブトラクションに頼らない。
提案手法は,学習可能な空間特徴の統計的モデリングも含む。
後者は、検出感度と異種データに対する堅牢性の両方を改善するのに有用である。
本稿では,提案手法をVLT/SPHERE機器から得られた複数のデータセットに適用し,PACOアルゴリズムよりも高精度なリコールトレードオフを示す。
興味深いことに、ADIによって誘導される多様性が最も限られている場合において、この利得は特に重要である。
関連論文リスト
- Reinforcement Learning for SAR View Angle Inversion with Differentiable
SAR Renderer [7.112962861847319]
本研究の目的は,合成開口レーダ(SAR)画像における目標モデルによるレーダー視角の反転である。
エージェントと環境との相互作用を容易にするために、微分可能SARレンダリング(DSR)という電磁シミュレータが組み込まれている。
論文 参考訳(メタデータ) (2024-01-02T11:47:58Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - Improving Vision Anomaly Detection with the Guidance of Language
Modality [64.53005837237754]
本稿では,マルチモーダルの観点から視覚モダリティの課題に取り組む。
本稿では,冗長な情報問題とスパース空間問題に対処するために,クロスモーダルガイダンス(CMG)を提案する。
視覚異常検出のためのよりコンパクトな潜在空間を学習するために、CMLEは言語モダリティから相関構造行列を学習する。
論文 参考訳(メタデータ) (2023-10-04T13:44:56Z) - Two Approaches to Supervised Image Segmentation [55.616364225463066]
本研究は、深層学習とマルチセットニューロンのアプローチの比較実験を開発する。
ディープラーニングアプローチは、画像セグメンテーションの実行の可能性を確認した。
代替のマルチセット手法では、計算資源をほとんど必要とせずに精度を向上することができた。
論文 参考訳(メタデータ) (2023-07-19T16:42:52Z) - Combining multi-spectral data with statistical and deep-learning models
for improved exoplanet detection in direct imaging at high contrast [39.90150176899222]
太陽系外惑星の信号は、いくつかの観測と専用の検出アルゴリズムを組み合わせることでのみ識別できる。
我々は,観測結果から直接,ニュアンスの空間的,時間的,スペクトル的特性のモデルを学ぶ。
その後、畳み込みニューラルネットワーク(CNN)が教師ありの方法で訓練され、合成源の残像を検出する。
論文 参考訳(メタデータ) (2023-06-21T13:42:07Z) - RRNet: Relational Reasoning Network with Parallel Multi-scale Attention
for Salient Object Detection in Optical Remote Sensing Images [82.1679766706423]
光リモートセンシング画像(RSI)のためのSODは、光学RSIから視覚的に特徴的な物体や領域を探索・抽出することを目的としている。
光学RSIにおけるSODに並列なマルチスケールアテンションを持つリレーショナル推論ネットワークを提案する。
提案するRRNetは,既存の最先端SODコンペティタよりも質的,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-27T07:18:32Z) - Multi-view Contrastive Coding of Remote Sensing Images at Pixel-level [5.64497799927668]
この制限を克服するために、ラベルのないマルチビュー設定に基づく画素単位のコントラスト的アプローチを提案する。
擬似媒介ResUnetは、シフトした正のペアから特徴を整列することを目的とした表現を学ぶために訓練される。
その結果,最先端のマルチビューコントラスト法よりも効率と精度が向上した。
論文 参考訳(メタデータ) (2021-05-18T13:28:46Z) - A Multiscale Graph Convolutional Network for Change Detection in
Homogeneous and Heterogeneous Remote Sensing Images [12.823633963080281]
リモートセンシング画像における変化検出(CD)は、常に研究の領域を広げています。
本稿では,グラフ畳み込みネットワーク(gcn)に基づく新しいcd法と,均質画像と異種画像の両方に対して多スケールオブジェクトベース手法を提案する。
論文 参考訳(メタデータ) (2021-02-16T09:26:31Z) - Robust Data Hiding Using Inverse Gradient Attention [82.73143630466629]
データ隠蔽タスクでは、異なる耐久性を有するため、カバー画像の各ピクセルを別々に扱う必要がある。
Inverse Gradient Attention (IGA) を用いた新しい深層データ隠蔽方式を提案する。
実証的な実験により、提案モデルが2つの先行するデータセット上で最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-11-21T19:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。