論文の概要: Gabliteration: Adaptive Multi-Directional Neural Weight Modification for Selective Behavioral Alteration in Large Language Models
- arxiv url: http://arxiv.org/abs/2512.18901v1
- Date: Sun, 21 Dec 2025 22:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.548301
- Title: Gabliteration: Adaptive Multi-Directional Neural Weight Modification for Selective Behavioral Alteration in Large Language Models
- Title(参考訳): ガブリケーション:大規模言語モデルにおける選択的行動変化に対する適応的多方向ニューラルウェイト修正
- Authors: Gökdeniz Gülmez,
- Abstract要約: 本稿では,ニューラルウェイト修飾技術であるGabliterationを紹介する。
正規化層選択による適応型多方向プロジェクションを実装した。
本稿では,Hugging Face で利用可能な Gabliterated-v1 モデルを用いて本手法を検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present Gabliteration, a novel neural weight modification technique that advances beyond traditional abliteration methods by implementing adaptive multi-directional projections with regularized layer selection. Our approach addresses the fundamental limitation of existing methods that compromise model quality while attempting to modify specific behavioral patterns. Through dynamic layer optimization, regularized projection matrices, and adaptive scaling mechanisms, we achieve theoretically superior weight modification while minimizing quality degradation in unrelated domains. We validate our method through the gabliterated-v1 model series (0.6B to 4B parameters) available on Hugging Face, demonstrating practical applicability across multiple model scales.
- Abstract(参考訳): 本稿では,正規化層選択による適応型多方向投影を実装することで,従来の読み出し法を超えて進化する新しい神経量修正手法であるGabliterationを提案する。
提案手法は, モデル品質を損なう既存手法の基本的な制限に対処し, 特定の行動パターンの変更を試みる。
動的層最適化,正規化プロジェクション行列,適応スケーリング機構により,非関係領域の品質劣化を最小限に抑えつつ,理論的に優れた重量修正を実現する。
本稿では,Hugging Face 上で利用可能な Gabliterated-v1 モデルシリーズ (0.6B から 4B パラメータ) を用いて本手法の有効性を検証する。
関連論文リスト
- Improving Multi-Class Calibration through Normalization-Aware Isotonic Techniques [3.2514496966247535]
多クラスキャリブレーションのための新しいアイソトニック正規化対応手法を提案する。
従来の手法とは異なり、本手法は本質的に確率正規化を考慮に入れている。
提案手法は, 負の対数類似度(NLL)と期待校正誤差(ECE)を常に改善する。
論文 参考訳(メタデータ) (2025-12-09T19:15:19Z) - Test-Time Model Adaptation for Quantized Neural Networks [37.84294929199108]
量子化モデルは、潜在的なドメインシフトを伴う動的環境において、深刻なパフォーマンス劣化に悩まされることが多い。
テスト時間適応(TTA)は、モデルがテストデータから適応的に学習できるようにすることによって、効果的なソリューションとして登場した。
本稿では,2つのフォワードパスのみを用いた効率的なモデル適応を実現するための連続ゼロ階適応(ZOA)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-04T08:24:19Z) - Training Deep Learning Models with Norm-Constrained LMOs [56.00317694850397]
線形最小化オラクル(LMO)を用いて問題の幾何学に適応する新しいアルゴリズム群を提案する。
我々は,Adamに頼らずに,我々のアルゴリズムであるScionを用いたナノGPTトレーニングの大幅な高速化を示す。
論文 参考訳(メタデータ) (2025-02-11T13:10:34Z) - Large Language Models to Diffusion Finetuning [20.251827725749607]
我々は、下流タスク間の性能向上に直接変換することで、単調に精度を向上することを示す。
本手法は,クロスエントロピー損失で事前学習した基礎モデルに適用可能である。
論文 参考訳(メタデータ) (2025-01-27T04:59:29Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - A Variational Inference Approach to Inverse Problems with Gamma
Hyperpriors [60.489902135153415]
本稿では,ガンマハイパープライヤを用いた階層的逆問題に対する変分反復交替方式を提案する。
提案した変分推論手法は正確な再構成を行い、意味のある不確実な定量化を提供し、実装が容易である。
論文 参考訳(メタデータ) (2021-11-26T06:33:29Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。