論文の概要: Combining datasets with different ground truths using Low-Rank Adaptation to generalize image-based CNN models for photometric redshift prediction
- arxiv url: http://arxiv.org/abs/2601.00146v1
- Date: Thu, 01 Jan 2026 00:26:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.282725
- Title: Combining datasets with different ground truths using Low-Rank Adaptation to generalize image-based CNN models for photometric redshift prediction
- Title(参考訳): 低ランク適応を用いた画像ベースCNNモデルの光度赤方偏移予測のためのデータセットと異なる基底真理の組み合わせ
- Authors: Vikram Seenivasan, Srinath Saikrishnan, Andrew Lizarraga, Jonathan Soriano, Bernie Boscoe, Tuan Do,
- Abstract要約: Low-Rank Adaptation (LoRA) は、様々な銀河画像データセットを組み合わせて、宇宙論のためのCNNモデルと赤方偏移推定を改善するために用いられる。
LoRAは、モデル重みとバイアスを調整するためのアダプタネットワークを追加し、リトレーニングなしで大きなベースモデルを効率的に微調整する、大規模言語モデルの確立された技術である。
我々の研究は、LoRAが天体物理学における微調整回帰モデルに有用であることを示す。
- 参考スコア(独自算出の注目度): 2.8724679538984694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we demonstrate how Low-Rank Adaptation (LoRA) can be used to combine different galaxy imaging datasets to improve redshift estimation with CNN models for cosmology. LoRA is an established technique for large language models that adds adapter networks to adjust model weights and biases to efficiently fine-tune large base models without retraining. We train a base model using a photometric redshift ground truth dataset, which contains broad galaxy types but is less accurate. We then fine-tune using LoRA on a spectroscopic redshift ground truth dataset. These redshifts are more accurate but limited to bright galaxies and take orders of magnitude more time to obtain, so are less available for large surveys. Ideally, the combination of the two datasets would yield more accurate models that generalize well. The LoRA model performs better than a traditional transfer learning method, with $\sim2.5\times$ less bias and $\sim$2.2$\times$ less scatter. Retraining the model on a combined dataset yields a model that generalizes better than LoRA but at a cost of greater computation time. Our work shows that LoRA is useful for fine-tuning regression models in astrophysics by providing a middle ground between full retraining and no retraining. LoRA shows potential in allowing us to leverage existing pretrained astrophysical models, especially for data sparse tasks.
- Abstract(参考訳): 本研究では、低ランク適応(LoRA)を用いて、異なる銀河画像データセットを組み合わせて、宇宙論のためのCNNモデルによる赤方偏移推定を改善する方法を示す。
LoRAは、モデル重みとバイアスを調整するためのアダプタネットワークを追加し、リトレーニングなしで大きなベースモデルを効率的に微調整する、大規模言語モデルの確立された技術である。
我々は、広い銀河型を含むが精度は低い光度赤方偏移基底真理データセットを用いてベースモデルを訓練する。
次に、分光赤方偏移基底真理データセット上でLoRAを用いて微調整を行う。
これらの赤方偏移はより正確であるが、明るい銀河に限られており、得られる時間は桁違いに長いため、大規模な調査では利用できない。
理想的には、2つのデータセットの組み合わせにより、より正確なモデルが得られる。
LoRAモデルは従来の転写学習法よりも優れており、$\sim2.5\times$よりバイアスが少なく、$\sim$2.2$\times$より散乱が少ない。
組み合わせたデータセットでモデルをトレーニングすると、LoRAよりも良く一般化するが、計算時間を長くするコストがかかるモデルが得られる。
我々の研究は、LoRAが天体物理学における微調整回帰モデルに有用であることを示す。
LoRAは、既存の事前訓練された天体物理モデル、特にデータスパースタスクを活用できる可能性を示している。
関連論文リスト
- How Much Knowledge Can You Pack into a LoRA Adapter without Harming LLM? [55.33467849079774]
ローランク適応(ローランク適応、LoRA)は、大規模言語モデルの更新やドメイン固有適応のための一般的かつ効率的な訓練手法である。
これまでに学習した知識を損なうことなく, LoRA を用いて LLM に新たな事実を組み込む方法について検討した。
論文 参考訳(メタデータ) (2025-02-20T12:31:03Z) - LoRA vs Full Fine-tuning: An Illusion of Equivalence [73.5303340531806]
我々は,Low-Rank Adaptation (LoRA) とフルファインタニングによる事前学習モデルについて検討する。
特異値分解が全く異なる構造を示すLoRAおよび完全微調整収量行列が得られた。
我々は、LoRAが完全な微調整を忘れてはならないという発見を拡張し、その忘れ物は侵入者次元に大きく局所化されていることを発見した。
論文 参考訳(メタデータ) (2024-10-28T17:14:01Z) - LoRA+: Efficient Low Rank Adaptation of Large Models [13.074320303580361]
低ランク適応(LoRA)は,大幅モデル(埋め込み次元)の最適下微細化につながることを示す。
そこで, このLoRAの準最適性は, 適応行列 A と B の学習率を良好に設定することで, 簡単に補正可能であることを示す。
我々の実験では、LoRA$+$は、LoRAと同じ計算コストで性能(1-2$%の改善)と微調整速度($sim$2X SpeedUpまで)を改善する。
論文 参考訳(メタデータ) (2024-02-19T18:33:49Z) - The Expressive Power of Low-Rank Adaptation [11.371811534310078]
パラメータ効率のよい微調整法である低ランク適応は、微調整事前学習モデルの代表的な手法として登場した。
本稿では,LoRAの表現力を理論的に解析することで,ギャップを埋める第一歩を踏み出す。
トランスフォーマーネットワークでは、任意のモデルが、ランク=$(fractextembedding size2)$ LoRAで同じサイズのターゲットモデルに適応可能であることを示す。
論文 参考訳(メタデータ) (2023-10-26T16:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。