論文の概要: Morphological classification of eclipsing binary stars using computer vision methods
- arxiv url: http://arxiv.org/abs/2508.12802v1
- Date: Mon, 18 Aug 2025 10:29:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.243896
- Title: Morphological classification of eclipsing binary stars using computer vision methods
- Title(参考訳): コンピュータビジョン法による楕円二元星の形態分類
- Authors: Štefan Parimucha, Maksim Gabdeev, Yanna Markus, Martin Vaňko, Pavol Gajdoš,
- Abstract要約: 楕円形双対(EB)の光曲線を分類するためのコンピュータビジョン手法の適用について述べる。
我々は畳み込みニューラルネットワークと視覚変換器に基づく事前学習モデルを用いてきた。
我々は、位相折り曲げられた光曲線を、ヘキシンの可視化と組み合わせて極座標に変換することによって、新しい画像表現を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an application of computer vision methods to classify the light curves of eclipsing binaries (EB). We have used pre-trained models based on convolutional neural networks ($\textit{ResNet50}$) and vision transformers ($\textit{vit\_base\_patch16\_224}$), which were fine-tuned on images created from synthetic datasets. To improve model generalisation and reduce overfitting, we developed a novel image representation by transforming phase-folded light curves into polar coordinates combined with hexbin visualisation. Our hierarchical approach in the first stage classifies systems into detached and overcontact types, and in the second stage identifies the presence or absence of spots. The binary classification models achieved high accuracy ($>96\%$) on validation data across multiple passbands (Gaia~$G$, $I$, and $TESS$) and demonstrated strong performance ($>94\%$, up to $100\%$ for $TESS$) when tested on extensive observational data from the OGLE, DEBCat, and WUMaCat catalogues. While the primary binary classification was highly successful, the secondary task of automated spot detection performed poorly, revealing a significant limitation of our models for identifying subtle photometric features. This study highlights the potential of computer vision for EB morphological classification in large-scale surveys, but underscores the need for further research into robust, automated spot detection.
- Abstract(参考訳): 本稿では,楕円双対(EB)の光曲線を分類するためのコンピュータビジョン手法の応用について述べる。
我々は、畳み込みニューラルネットワーク(\textit{ResNet50}$)とビジョントランスフォーマー(\textit{vit\_base\_patch16\_224}$)に基づく事前学習モデルを用いて、合成データセットから生成された画像に微調整を行った。
モデル一般化の改善とオーバーフィッティングの削減を目的として, 相展開光曲線をヘキサビンの可視化と組み合わせた極座標に変換することにより, 新たな画像表現法を開発した。
第1段階の階層的アプローチは、システムから分離された型と過剰な型に分類し、第2段階ではスポットの有無を識別する。
バイナリ分類モデルは、複数のパスバンドにわたる検証データ(Gaia~$G$、$I$、$TESS$)に対して高い精度(>96\%$)を達成し、OGLE、DEBCat、WUMaCatカタログからの広範な観測データでテストすると、強い性能(>94\%$、$TESS$)を示した。
一次二分法は高い評価を得たが, 自動スポット検出の二次的課題は不十分であり, 微妙な測光特性を識別するためのモデルの大幅な制限が明らかとなった。
本研究は、大規模サーベイにおけるEB形態分類のためのコンピュータビジョンの可能性を強調するが、ロバストで自動化されたスポット検出のさらなる研究の必要性を浮き彫りにしている。
関連論文リスト
- ICAS: Detecting Training Data from Autoregressive Image Generative Models [38.1625974271413]
トレーニングデータ検出は、モデルトレーニングにおける不正なデータ使用を識別するための重要なタスクとして登場した。
我々はこの領域に会員推定を適用した最初の研究を行う。
我々の手法は、様々なデータ変換の下で強い堅牢性と一般化を示す。
論文 参考訳(メタデータ) (2025-07-07T14:50:42Z) - Forgery-aware Adaptive Transformer for Generalizable Synthetic Image
Detection [106.39544368711427]
本研究では,様々な生成手法から偽画像を検出することを目的とした,一般化可能な合成画像検出の課題について検討する。
本稿では,FatFormerという新しいフォージェリー適応トランスフォーマー手法を提案する。
提案手法は, 平均98%の精度でGANを観測し, 95%の精度で拡散モデルを解析した。
論文 参考訳(メタデータ) (2023-12-27T17:36:32Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Robustifying Deep Vision Models Through Shape Sensitization [19.118696557797957]
そこで本研究では,ネットワークの全体像を学習するためのインセンティブを明示的に付与する,シンプルで軽量な対向拡張手法を提案する。
我々の拡張は、ランダムに決定された混合比を用いて、シャッフルパッチで、ある画像から別の画像へのエッジマップを重畳する。
この拡張により,データセットやニューラルアーキテクチャの分類精度とロバストネスが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-11-14T11:17:46Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Image-based Automated Species Identification: Can Virtual Data
Augmentation Overcome Problems of Insufficient Sampling? [0.0]
視覚的種自動識別のための2段階データ拡張手法を提案する。
データ拡張の第1段階は、データ拡張と偽画像の生成という古典的なアプローチを適用している。
第2レベルのデータ拡張では、ベクトル空間におけるオーバーサンプリングアルゴリズムによって、特徴空間における合成的な追加サンプリングが採用されている。
論文 参考訳(メタデータ) (2020-10-18T15:44:45Z) - Granular Learning with Deep Generative Models using Highly Contaminated
Data [0.0]
品質問題のある実世界の画像データセット上で, 微粒な意味での異常検出のための深部生成モデルの最近の進歩を活用するためのアプローチを詳述する。
このアプローチは完全に教師なし(アノテーションは使用できない)だが、質的に画像の正確なセマンティックラベリングを提供するために示される。
論文 参考訳(メタデータ) (2020-01-06T23:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。