論文の概要: Large Language Models for Limited Noisy Data: A Gravitational Wave Identification Study
- arxiv url: http://arxiv.org/abs/2512.04031v1
- Date: Wed, 03 Dec 2025 18:13:01 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:07:46.086396
- Title: Large Language Models for Limited Noisy Data: A Gravitational Wave Identification Study
- Title(参考訳): 限られた雑音データに対する大規模言語モデル:重力波同定による研究
- Authors: Yixuan Li, Yuhao Lu, Yang Liu, Liang Li, R. Ruffini, Di Li, Rong-Gen Cai, Xiaoyan Zhu, Wenbin Lin, Yu Wang,
- Abstract要約: 本研究では、大言語モデル(LLM)が、天文学的なデータ処理において従来のニューラルネットワークよりも優れているかどうかを検討する。
90のLIGOイベントのみを使用して、微調整されたLLMは信号の識別に97.4%の精度を達成している。
同じ戦略は、電波やパルサーの観測のような同様のノイズ特性を持つ他の天文学領域にまで拡張することができる。
- 参考スコア(独自算出の注目度): 26.44274425955736
- License:
- Abstract: This work investigates whether large language models (LLMs) offer advantages over traditional neural networks for astronomical data processing, in regimes with non-Gaussian, non-stationary noise and limited labeled samples. Gravitational wave observations provide an suitable test case, using only 90 LIGO events, finetuned LLMs achieve 97.4\% accuracy for identifying signals. Further experiments show that, in contrast to traditional networks that rely on large simulated datasets, additional simulated samples do not improve LLM performance, while scaling studies reveal predictable gains with increasing model size and dataset size. These results indicate that LLMs can extract discriminative structure directly from observational data and provide an efficient assessment for gravitational wave identification. The same strategy may extend to other astronomical domains with similar noise properties, such as radio or pulsar observations.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)が,非ガウス的,非定常雑音,ラベル付きサンプルの制限のあるレギュレータにおいて,天文学的なデータ処理において従来のニューラルネットワークよりも優れているかを検討する。
重力波観測は、90のLIGOイベントのみを使用して、信号の識別に97.4\%の精度を達成し、適切なテストケースを提供する。
さらなる実験では、大規模なシミュレーションデータセットに依存する従来のネットワークとは対照的に、追加のシミュレーションサンプルはLLM性能を改善しない一方で、スケールスタディではモデルサイズとデータセットサイズの増加による予測可能なゲインを明らかにしている。
これらの結果は,LLMが観測データから直接識別構造を抽出し,重力波の同定に有効であることを示している。
同じ戦略は、電波やパルサーの観測のような同様のノイズ特性を持つ他の天文学領域にまで拡張することができる。
関連論文リスト
- Simulation-Based Pretraining and Domain Adaptation for Astronomical Time Series with Minimal Labeled Data [0.12744523252873352]
本稿では,実観測からラベル付きサンプルの必要性を大幅に低減し,シミュレーションを活用する事前学習手法を提案する。
我々のモデルは、複数の天文学調査(ZTFとLSST)のシミュレーションデータに基づいて訓練され、下流のタスクに効率的に移行する一般化可能な表現を学習する。
注目すべきは、既存の望遠鏡(ZTF)データのみをトレーニングすると、将来の望遠鏡(LSST)シミュレーションに匹敵する性能を達成できる、効果的なゼロショット転送能力を示すことだ。
論文 参考訳(メタデータ) (2025-10-14T20:07:14Z) - On the Shape of Latent Variables in a Denoising VAE-MoG: A Posterior Sampling-Based Study [51.56484100374058]
ガウス前駆体 (VAE-MoG) を用いた変分オートエンコーダの潜時空間を探索する。
モデルが基盤構造をどれだけうまく捉えているかを評価するために、ハミルトンモンテカルロ (HMC) を用いて、クリーンな入力で条件付けられた後続サンプルを描画し、ノイズの多いデータからエンコーダの出力と比較する。
モデルは正確に信号を再構成するが、統計的比較により、潜在空間における明らかなミスマッチが明らかになる。
論文 参考訳(メタデータ) (2025-09-29T18:33:09Z) - A simulation-based training framework for machine-learning applications in ARPES [0.0]
我々は、機械学習モデルのトレーニングに必要な大規模なデータセットを生成するために、オープンソースの合成ARPESスペクトルシミュレーター、aureliaを導入する。
シミュレーション訓練したモデルと実際の実験データとをベンチマークし、人間の分析よりも正確なスペクトル品質を評価できることを示した。
論文 参考訳(メタデータ) (2025-08-21T21:59:09Z) - Angles Don't Lie: Unlocking Training-Efficient RL Through the Model's Own Signals [49.17123504516502]
大規模言語モデル(LLM)のためのRFTパラダイムは、均一なデータサンプリングの下で同じクエリが冗長に露出するため、効率が悪い。
グラディエント駆動型アングルインフォームドナビゲーションRLフレームワークを提案する。
モデル固有の角度集中信号を利用することで、GAIN-RLは各エポックにおけるトレーニングデータを動的に選択し、一貫したインパクトのある勾配更新を確実にする。
論文 参考訳(メタデータ) (2025-06-02T21:40:38Z) - Ionospheric Scintillation Forecasting Using Machine Learning [0.4369058206183195]
この研究は、振幅シンチレーションの強度を予測できる機械学習(ML)モデルの開発に焦点を当てている。
XGBoostモデルは最も効果的なモデルとして登場し、バランスの取れたデータセットでトレーニングした場合、顕著な77%の予測精度を示した。
論文 参考訳(メタデータ) (2024-08-28T08:21:01Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - Diffusion posterior sampling for simulation-based inference in tall data settings [53.17563688225137]
シミュレーションベース推論(SBI)は、入力パラメータを所定の観測に関連付ける後部分布を近似することができる。
本研究では、モデルのパラメータをより正確に推測するために、複数の観測値が利用できる、背の高いデータ拡張について考察する。
提案手法を,最近提案した各種数値実験の競合手法と比較し,数値安定性と計算コストの観点から,その優位性を実証した。
論文 参考訳(メタデータ) (2024-04-11T09:23:36Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Decision Forest Based EMG Signal Classification with Low Volume Dataset
Augmented with Random Variance Gaussian Noise [51.76329821186873]
我々は6種類の手振りを限定的なサンプル数で分類できるモデルを作成し、より広い聴衆によく一般化する。
信号のランダムなバウンドの使用など、より基本的な手法のセットにアピールするが、これらの手法がオンライン環境で持てる力を示したいと考えている。
論文 参考訳(メタデータ) (2022-06-29T23:22:18Z) - Flow-Based Likelihoods for Non-Gaussian Inference [0.0]
我々は、多くの科学的分析において重要な仮定を回避するためのデータ駆動可能性の使用について検討する。
有限標本サイズによるサンプリング誤差と同程度の精度で再現可能であることを示す。
データ内のさまざまなレベルのNGをキャプチャ可能な一連のテストを導入することで、従来のデータ駆動可能性の成功と失敗は、データのNG構造に結びつくことができることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。