論文の概要: Learning to Disentangle Latent Reasoning Rules with Language VAEs: A Systematic Study
- arxiv url: http://arxiv.org/abs/2506.19418v1
- Date: Tue, 24 Jun 2025 08:38:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.557296
- Title: Learning to Disentangle Latent Reasoning Rules with Language VAEs: A Systematic Study
- Title(参考訳): 言語VAEを用いた潜在推論規則の分散学習 : 体系的研究
- Authors: Yingji Zhang, Marco Valentino, Danilo S. Carvalho, André Freitas,
- Abstract要約: 本研究は,推論規則を言語モデル内に明示的に組み込んで記憶する方法について検討する。
本稿では,Transformer ベースの言語 VAE における推論規則を学習するための完全なパイプラインを提案する。
- 参考スコア(独自算出の注目度): 13.59688284637146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating explicit reasoning rules within the latent space of language models (LMs) offers a promising pathway to enhance generalisation, interpretability, and controllability. While current Transformer-based language models have shown strong performance on Natural Language Inference (NLI) tasks, they often rely on memorisation rather than rule-based inference. This work investigates how reasoning rules can be explicitly embedded and memorised within the LMs through Language Variational Autoencoders (VAEs). We propose a complete pipeline for learning reasoning rules within Transformer-based language VAEs. This pipeline encompasses three rule-based reasoning tasks, a supporting theoretical framework, and a practical end-to-end architecture. The experiment illustrates the following findings: Disentangled reasoning: Under explicit signal supervision, reasoning rules - viewed as functional mappings - can be disentangled within the encoder's parametric space. This separation results in distinct clustering of rules in the output feature space. Prior knowledge injection: injecting reasoning information into the Query enables the model to more effectively retrieve the stored value Value from memory based on Key. This approach offers a simple method for integrating prior knowledge into decoder-only language models. Performance bottleneck: In mathematical reasoning tasks using Qwen2.5(0.5B), increasing sample count doesn't improve performance beyond a point. Moreover, ffn layers are better than attention layers at preserving the separation of reasoning rules in the model's parameters.
- Abstract(参考訳): 言語モデル(LM)の潜在空間に明確な推論規則を組み込むことは、一般化、解釈可能性、制御性を高めるための有望な経路を提供する。
現在のTransformerベースの言語モデルは、自然言語推論(NLI)タスクに強いパフォーマンスを示しているが、ルールベースの推論よりも記憶に依存していることが多い。
本研究では,Language Variational Autoencoders (VAEs) を通じて,推論規則をLM内に明示的に埋め込み,記憶する方法について検討する。
本稿では,Transformer ベースの言語 VAE における推論規則を学習するための完全なパイプラインを提案する。
このパイプラインは、3つのルールベースの推論タスク、サポートする理論フレームワーク、実用的なエンドツーエンドアーキテクチャを含んでいる。
アンタングルド推論: 明示的な信号監督の下では、推論規則(関数マッピングと見なされる)はエンコーダのパラメトリック空間内でアンタングル化される。
この分離は、出力特徴空間におけるルールの異なるクラスタリングをもたらす。
事前知識注入: Queryに推論情報を注入することで、モデルがキーに基づいたメモリから格納された値をより効率的に取り出すことができる。
このアプローチは、事前知識をデコーダのみの言語モデルに統合するシンプルな方法を提供する。
パフォーマンスボトルネック: Qwen2.5(0.5B)を使用した数学的推論タスクでは、サンプリング数の増加は、ポイントを超えてパフォーマンスを向上しない。
さらに、ffnレイヤは、モデルのパラメータにおける推論ルールの分離を保存する上で、注意層よりも優れている。
関連論文リスト
- Beyond Words: A Latent Memory Approach to Internal Reasoning in LLMs [0.0]
本研究では,暗黙的な心的表現を大規模言語モデルの内部推論プロセスに統合する枠組みを提案する。
予備実験は、インプリシットメモリモジュールを単純なGPTモデルに組み込むことで、最終トレーニング損失の35%から57%の削減が得られることを示している。
論文 参考訳(メタデータ) (2025-02-28T13:22:29Z) - General Intelligence Requires Reward-based Pretraining [19.90997698310839]
大規模言語モデル(LLM)は、実世界の素晴らしいユーティリティを実証している。
しかし、適応的かつ堅牢に推論できる能力は、脆弱なままだ。
我々は3つの重要な方向から知識と推論を解き放つことを提案する。
論文 参考訳(メタデータ) (2025-02-26T18:51:12Z) - LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Offline RL for Natural Language Generation with Implicit Language Q
Learning [87.76695816348027]
ユーザ指定タスクの完了に関して、大きな言語モデルは矛盾する可能性がある。
本稿では,RLのフレキシブル・ユーティリティ・フレームワークと教師あり学習能力を組み合わせた新しいRL手法を提案する。
ILQLの実証的な検証に加えて、オフラインRLが自然言語生成設定で有用となるような、詳細な経験的分析状況も提示する。
論文 参考訳(メタデータ) (2022-06-05T18:38:42Z) - RuleBert: Teaching Soft Rules to Pre-trained Language Models [21.69870624809201]
そこで我々は, PLM が与えられた仮説の確率で予測を返すべき, 事実とソフトルールを前提とした分類タスクを導入する。
本研究では, PLM がタスクの正確な確率の予測方法を学習できるように改良された損失関数を提案する。
評価結果から,学習時に見つからない論理的ルールであっても,得られた微調整モデルは非常に高い性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-24T16:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。