論文の概要: Localist LLMs with Recruitment Learning
- arxiv url: http://arxiv.org/abs/2510.17358v1
- Date: Mon, 20 Oct 2025 09:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.391743
- Title: Localist LLMs with Recruitment Learning
- Title(参考訳): リクルート学習を取り入れたローカリストLSM
- Authors: Joachim Diederich,
- Abstract要約: 連続的に調整可能な内部表現を持つ大規模言語モデルを訓練するための新しいフレームワークを提案する。
主な革新は,(1) モデルの再訓練を必要とせず,訓練と推論の双方において局所化の度合いを動的に制御する局所性ダイヤル,(2) セマンティックブロックを必要に応じて適応的に割り当てる情報理論的採用機構である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel framework for training large language models with continuously adjustable internal representations that span the full spectrum from localist (interpretable, rule-based) to distributed (generalizable, efficient) encodings. The key innovations are (1) a locality dial, a tunable parameter that dynamically controls the degree of localization during both training and inference without requiring model retraining, (2) an information-theoretic recruitment mechanism that adaptively allocates semantic blocks as needed, eliminating the requirement for complete domain knowledge at initialization, and (3) a hierarchical recruitment framework that extends capacity allocation to entire specialized LLMs, enabling multi-granularity architectural adaptation. This is achieved through group sparsity penalties on attention mechanisms, information-theoretic anchor design, dynamic rule injection, and principled recruitment criteria based on penalized likelihood with explicit units. We provide rigorous mathematical results establishing explicit threshold conditions under which attention provably concentrates on semantically relevant blocks at stationary points, with exact bounds on attention entropy and pointer fidelity. The hierarchical recruitment mechanism provides convergence guarantees at both the block level (fine-grained, within-LLM) and the LLM level (coarse-grained, cross-domain), ensuring the system discovers semantic partitions that balance model complexity against data encoding efficiency. This framework enables practitioners to continuously interpolate between interpretable and high-performance modes while adapting architectural capacity at multiple granularities, supporting applications in regulated domains requiring both transparency and capability.
- Abstract(参考訳): 本稿では,ローカリスト(解釈可能,ルールベース)から分散(一般化可能,効率的な)エンコーディングまで,多岐にわたる内部表現を連続的に調整可能な大規模言語モデルのトレーニングフレームワークを提案する。
主なイノベーションは,(1)ローカリティダイヤル,(2)モデル再トレーニングを必要とせず,トレーニング中の局所化の度合いを動的に制御する調整可能なパラメータ,(2)セマンティックブロックを必要に応じて適応的に割り当てる情報理論的採用機構,(2)初期化時のドメイン知識の完全な要求を排除し,(3)特殊LLM全体へのキャパシティ割り当てを拡張する階層的採用フレームワーク,などである。
これは、注意機構、情報理論的アンカー設計、ダイナミックルールインジェクション、および明示的な単位による罰則に基づく原則的採用基準に基づくグループスポーサリティ罰によって達成される。
我々は、注意が定常点における意味的関連ブロックに確実に集中し、注意エントロピーとポインター忠実度に厳密な境界がある、明示的なしきい値条件を確立する厳密な数学的結果を提供する。
階層的な採用メカニズムは、ブロックレベル(細粒度、LLM内)とLLMレベル(大粒度、クロスドメイン)の両方で収束を保証する。
このフレームワークは、解釈可能なモードとハイパフォーマンスモードを継続的に相互補完し、アーキテクチャのキャパシティを複数の粒度に適応させ、透明性と能力の両方を必要とする規制されたドメインでのアプリケーションをサポートする。
関連論文リスト
- Localist LLMs -- A Mathematical Framework for Dynamic Locality Control [0.0]
鍵となる革新はローカリティダイヤル(Locality dial)であり、モデル再トレーニングを必要とせず、トレーニングと推論の両方で局所化の度合いを動的に制御する調整可能なパラメータである。
群間隔のペナルティが一定のしきい値を超えると、モデルの注意機構は意味論的に関連するブロックに集中し、無視可能な誤りでエントロピーが低く、忠実度が高いことを証明する。
論文 参考訳(メタデータ) (2025-10-10T12:44:59Z) - ReaLM: Residual Quantization Bridging Knowledge Graph Embeddings and Large Language Models [18.720486146234077]
大言語モデル(LLM)は知識グラフ補完(KGC)の強力なパラダイムとして登場した。
我々は、KG埋め込みとLLMトークン化のギャップを埋める、新しく効果的なフレームワークであるReaLMを提案する。
本稿では,ReaLMが最先端性能を実現し,構造化知識と大規模言語モデルとの整合性を確認した。
論文 参考訳(メタデータ) (2025-10-10T04:36:13Z) - Diagnose, Localize, Align: A Full-Stack Framework for Reliable LLM Multi-Agent Systems under Instruction Conflicts [75.20929587906228]
LLM(Large Language Model)を利用したマルチエージェントシステム(MAS)は、複雑なタスクにおける協調推論、ツールの使用、役割特化調整を急速に進めている。
しかし、信頼性クリティカルなデプロイメントは、体系的な障害モード、すなわち命令の競合による階層的コンプライアンスによって妨げられている。
論文 参考訳(メタデータ) (2025-09-27T08:43:34Z) - Semantic-Inductive Attribute Selection for Zero-Shot Learning [4.083977531653519]
ゼロショット学習(ZSL)のための2つの相補的特徴選択戦略について検討する。
1つ目は、ZSLの要求に埋め込まれた特徴選択を適応させ、モデル駆動のランキングを意味のあるセマンティックプルーニングに変換する。
2つ目は、進化的計算を利用して属性部分集合の空間を直接探索する。
論文 参考訳(メタデータ) (2025-09-26T15:14:36Z) - The Landscape of Agentic Reinforcement Learning for LLMs: A Survey [104.31926740841128]
エージェント強化学習(Agentic RL)の出現は、大規模言語モデル(LLM RL)に適用された従来の強化学習からパラダイムシフトを示している。
本研究では, LLM-RLの縮退した単段階マルコフ決定過程(MDPs)と, エージェントRLを定義する部分可観測マルコフ決定過程(POMDPs)とを対比することにより, この概念シフトを定式化する。
論文 参考訳(メタデータ) (2025-09-02T17:46:26Z) - LLM-as-classifier: Semi-Supervised, Iterative Framework for Hierarchical Text Classification using Large Language Models [0.0]
大規模言語モデル(LLM)は、構造化されていないテキストデータを解析する前例のない機能を提供している。
標準的な微調整アプローチはリソース集約的であり、実世界のデータ分散の動的な性質にしばしば苦労する。
論文 参考訳(メタデータ) (2025-08-22T15:47:17Z) - DART: Dual Adaptive Refinement Transfer for Open-Vocabulary Multi-Label Recognition [59.203152078315235]
Open-Vocabulary Multi-Label Recognition (OV-MLR)は、画像内の複数の見えないオブジェクトカテゴリを識別することを目的としている。
ビジョンランゲージ事前学習モデルは強力なオープン語彙基盤を提供するが、弱い監督下では微粒な局所化に苦慮する。
本稿では,これらの制約を克服するためのDART(Dual Adaptive Refinement Transfer)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-07T17:22:33Z) - Deformable Cluster Manipulation via Whole-Arm Policy Learning [27.54191389134963]
本稿では,3次元点雲とプロプリセプティブタッチインジケータという2つのモードを統合したモデルフリーポリシーの学習フレームワークを提案する。
我々の強化学習フレームワークは,カーネル平均埋め込みによる分散状態表現を利用して,学習効率の向上とリアルタイム推論を実現する。
我々は、このフレームワークを電力線クリアランスシナリオに展開し、エージェントが複数のアームリンクを利用して非閉塞性を実現する創造的戦略を生成することを観察する。
論文 参考訳(メタデータ) (2025-07-22T23:58:30Z) - Benchmarking LLMs' Swarm intelligence [51.648605206159125]
大規模言語モデル(LLM)は複雑な推論の可能性を秘めているが、マルチエージェントシステム(MAS)における創発的協調の能力はほとんど探索されていない。
分散エージェントとして機能するLDMのタスクを体系的に評価する新しいベンチマークであるSwarmBenchを紹介する。
本稿では,協調効率の指標を提案し,創発的グループダイナミクスを解析する。
論文 参考訳(メタデータ) (2025-05-07T12:32:01Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。