論文の概要: Neurosymbolic LoRA: Why and When to Tune Weights vs. Rewrite Prompts
- arxiv url: http://arxiv.org/abs/2601.12711v1
- Date: Mon, 19 Jan 2026 04:24:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.753766
- Title: Neurosymbolic LoRA: Why and When to Tune Weights vs. Rewrite Prompts
- Title(参考訳): ニューロシンボリックなLoRA:なぜ、いつ、重みをチューニングするか?
- Authors: Kevin Wang, Neel P. Bhatt, Cong Liu, Junbo Li, Runjin Chen, Yihan Xi, Timothy Barclay, Alvaro Velasquez, Ufuk Topcu, Zhangyang Wang,
- Abstract要約: 大規模言語モデル(LLM)は、モデルのパラメータを変更する数値的な更新や、離散的なプロンプトや論理的な制約を扱うシンボリックな操作によって適応することができる。
本稿では,数値的および記号的更新を組み合わせたニューロシンボリックなLoRAフレームワークを提案する。
本研究は,言語モデルの微調整における汎用性を高めるために,数値的および記号的更新をインターリーブすることの価値を強調した。
- 参考スコア(独自算出の注目度): 60.59428237500969
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) can be adapted either through numerical updates that alter model parameters or symbolic manipulations that work on discrete prompts or logical constraints. While numerical fine-tuning excels at injecting new factual knowledge, symbolic updates offer flexible control of style and alignment without retraining. We introduce a neurosymbolic LoRA framework that dynamically combines these two complementary strategies. Specifically, we present a unified monitoring signal and a reward-based classifier to decide when to employ LoRA for deeper factual reconstruction and when to apply TextGrad for token-level edits. Our approach remains memory-efficient by offloading the symbolic transformations to an external LLM only when needed. Additionally, the refined prompts produced during symbolic editing serve as high-quality, reusable training data, an important benefit in data-scarce domains like mathematical reasoning. Extensive experiments across multiple LLM backbones show that neurosymbolic LoRA consistently outperforms purely numerical or purely symbolic baselines, demonstrating superior adaptability and improved performance. Our findings highlight the value of interleaving numerical and symbolic updates to unlock a new level of versatility in language model fine-tuning.
- Abstract(参考訳): 大規模言語モデル(LLM)は、モデルのパラメータを変更する数値的な更新や、離散的なプロンプトや論理的な制約を扱うシンボリックな操作によって適応することができる。
数値的な微調整は、新しい事実知識を注入する上で優れているが、シンボリック更新は、リトレーニングなしでスタイルとアライメントの柔軟な制御を提供する。
本稿では,これら2つの相補的戦略を動的に組み合わせた,ニューロシンボリックなLoRAフレームワークを提案する。
具体的には、より深い事実再構成にLoRAをいつ使うか、トークンレベルの編集にTextGradを適用するかを決定するために、統一された監視信号と報酬ベースの分類器を提案する。
シンボリックトランスフォーメーションを外部LLMにオフロードすることでメモリ効率を保ちます。
さらに、記号編集中に生成される改良されたプロンプトは、高品質で再利用可能なトレーニングデータとして役立ち、数学的推論のようなデータスカース領域において重要な利点である。
複数のLDMバックボーンにわたる広範囲な実験により、ニューロシンボリックロラは純粋に数値的または純粋に記号的ベースラインよりも優れ、優れた適応性を示し、性能が向上することが示された。
本研究は,言語モデルの微調整における汎用性を高めるために,数値的および記号的更新をインターリーブすることの価値を強調した。
関連論文リスト
- Compile Scene Graphs with Reinforcement Learning [69.36723767339001]
次世代予測は大規模言語モデル(LLM)の訓練の基本原理である
本稿では,マルチモーダルLLM(M-LLM)であるR1-SGGを紹介する。
私たちは、Hard Recall、Hard Recall+Relax、Soft Recallの3つのリコールベースのバリエーションを含む、グラフ中心の報酬セットを設計します。
論文 参考訳(メタデータ) (2025-04-18T10:46:22Z) - Learning on LoRAs: GL-Equivariant Processing of Low-Rank Weight Spaces for Large Finetuned Models [38.197552424549514]
低ランク適応(LoRA)は、大規模な基礎モデルの微調整に革命をもたらした。
LoRAは、これらの低ランクウェイトを入力として利用する機械学習技術を適用する機会を提供する。
本稿では,LoRA重みが機械学習モデルへの入力として機能するパラダイムであるLoRA(Learning on LoRAs)の可能性を検討する。
論文 参考訳(メタデータ) (2024-10-05T15:52:47Z) - Can Large Language Models Understand Symbolic Graphics Programs? [136.5639211254501]
シンボリックグラフィックスプログラムはコンピュータグラフィックスで人気がある。
これにより、視覚エンコーダを使わずに、画像や3次元幾何学に関する意味的な疑問に答えるLLMの能力をテストすることができる。
我々は、最小限の努力で手続き的に構築されたシンボルグラフィックプログラムの意味的視覚的理解のためのベンチマークを作成する。
我々は,プログラムの視覚的アウトプットを判断する能力を評価するため,商用およびオープンソースLCMをベンチマークで評価した。
論文 参考訳(メタデータ) (2024-08-15T17:59:57Z) - RLSF: Fine-tuning LLMs via Symbolic Feedback [11.407319705797242]
大規模言語モデル(LLM)はAIを変えてきたが、ドメイン固有の推論と論理的アライメントを必要とするタスクにしばしば苦労している。
従来の微調整手法は、私たちにとって利用可能な膨大な量の記号的ドメイン知識を活用できない。
本稿では,新しい微調整パラダイムであるシンボリックフィードバック(RLSF)による強化学習を紹介する。
論文 参考訳(メタデータ) (2024-05-26T18:49:59Z) - Symbolic Visual Reinforcement Learning: A Scalable Framework with
Object-Level Abstraction and Differentiable Expression Search [63.3745291252038]
DiffSESは、離散的なシンボルポリシーを発見する新しいシンボリック学習手法である。
生のピクセルレベルの入力の代わりにオブジェクトレベルの抽象化を使用することで、DiffSESはシンボリック表現の単純さとスケーラビリティの利点を活用することができる。
我々の実験は、DiffSESが最先端のシンボルRL法よりもシンプルでスケーラブルなシンボリックポリシーを生成することができることを示した。
論文 参考訳(メタデータ) (2022-12-30T17:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。