論文の概要: Cross-Modal Unlearning via Influential Neuron Path Editing in Multimodal Large Language Models
- arxiv url: http://arxiv.org/abs/2511.06793v1
- Date: Mon, 10 Nov 2025 07:31:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.136803
- Title: Cross-Modal Unlearning via Influential Neuron Path Editing in Multimodal Large Language Models
- Title(参考訳): マルチモーダル大言語モデルにおけるインフルエンシャルニューロン経路編集によるクロスモーダル・アンラーニング
- Authors: Kunhao Li, Wenhao Li, Di Wu, Lei Yang, Jun Bai, Ju Jia, Jason Xue,
- Abstract要約: MLLM(Multimodal Large Language Models)は、テキストやビジョンなどの入力を統合することで、基礎モデルを現実世界のアプリケーションに拡張する。
機械学習のためのマルチモーダル・インフルエンサー・ニューロン・パス・エディター (MIP-Editor) を提案する。
MIP-Editorはマルチモーダルタスクにおいて、最大忘れ率87.75%、一般知識保持率54.26%という優れた未学習性能を達成する。
- 参考スコア(独自算出の注目度): 17.615935163924856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimodal Large Language Models (MLLMs) extend foundation models to real-world applications by integrating inputs such as text and vision. However, their broad knowledge capacity raises growing concerns about privacy leakage, toxicity mitigation, and intellectual property violations. Machine Unlearning (MU) offers a practical solution by selectively forgetting targeted knowledge while preserving overall model utility. When applied to MLLMs, existing neuron-editing-based MU approaches face two fundamental challenges: (1) forgetting becomes inconsistent across modalities because existing point-wise attribution methods fail to capture the structured, layer-by-layer information flow that connects different modalities; and (2) general knowledge performance declines when sensitive neurons that also support important reasoning paths are pruned, as this disrupts the model's ability to generalize. To alleviate these limitations, we propose a multimodal influential neuron path editor (MIP-Editor) for MU. Our approach introduces modality-specific attribution scores to identify influential neuron paths responsible for encoding forget-set knowledge and applies influential-path-aware neuron-editing via representation misdirection. This strategy also enables effective and coordinated forgetting across modalities while preserving the model's general capabilities. Experimental results demonstrate that MIP-Editor achieves a superior unlearning performance on multimodal tasks, with a maximum forgetting rate of 87.75% and up to 54.26% improvement in general knowledge retention. On textual tasks, MIP-Editor achieves up to 80.65% forgetting and preserves 77.9% of general performance. Codes are available at https://github.com/PreckLi/MIP-Editor.
- Abstract(参考訳): MLLM(Multimodal Large Language Models)は、テキストやビジョンなどの入力を統合することで、基礎モデルを現実世界のアプリケーションに拡張する。
しかし、その幅広い知識能力は、プライバシーの漏洩、毒性の軽減、知的財産権侵害に対する懸念を増大させる。
マシン・アンラーニング(MU)は、対象とする知識を選択的に忘れ、全体のモデルユーティリティを保存することで、実用的なソリューションを提供する。
MLLMに適用した場合、既存のニューロン編集ベースのMUアプローチは、(1) 既存のポイントワイド属性法が異なるモダリティを接続する構造化された層間情報フローを捕捉できないため、モダリティ間で不整合となること、(2) 重要な推論経路をサポートするセンシティブなニューロンが切断されると、一般的な知識性能が低下する、という2つの根本的な課題に直面している。
これらの制約を緩和するため、MUのためのMIP-Editor(MIP-Editor)を提案する。
提案手法では, モダリティ特異的帰属スコアを導入し, 暗黙的知識の符号化に寄与する影響ニューロン経路を同定し, 表現ミスダイレクトによる影響パス認識ニューロン編集を適用した。
この戦略はまた、モデルの一般的な能力を保ちながら、モダリティをまたいで効果的かつ協調的に忘れることを可能にします。
実験結果から,MIP-Editorはマルチモーダルタスクにおいて,最大再学習率87.75%,一般知識保持率54.26%に向上した。
テキストタスクでは、最大80.65%のMIP-Editorが、一般的なパフォーマンスの77.9%を忘れ、保存している。
コードはhttps://github.com/PreckLi/MIP-Editor.comで入手できる。
関連論文リスト
- PUMA: Layer-Pruned Language Model for Efficient Unified Multimodal Retrieval with Modality-Adaptive Learning [54.73049408950049]
モーダリティ適応型学習を伴う効率的な統一マルチモーダル検索のための階層型言語モデルを提案する。
本手法は,構造的,学習的両面からの統合的マルチモーダル検索を改善する。
論文 参考訳(メタデータ) (2025-07-10T16:47:25Z) - MLLMs are Deeply Affected by Modality Bias [158.64371871084478]
MLLM(Multimodal Large Language Models)の最近の進歩は、テキストや画像などの多様なモダリティを統合する上で、有望な成果を示している。
MLLMはモダリティバイアスに強く影響され、しばしば言語に依存し、視覚入力のような他のモダリティを過小評価する。
本稿では,MLLMはモダリティバイアスの影響を強く受けており,様々なタスクにまたがってその発現を明らかにする。
論文 参考訳(メタデータ) (2025-05-24T11:49:31Z) - MID-L: Matrix-Interpolated Dropout Layer with Layer-wise Neuron Selection [0.0]
Matrix-Interpolated Dropout Layer (MID-L) は、最も情報性の高いニューロンのみを動的に選択し、活性化する。
MNIST, CIFAR-10, CIFAR-100, SVHN, UCI adult, IMDB の6つのベンチマークによる実験の結果, MID-L は活動ニューロンの55%まで減少することがわかった。
論文 参考訳(メタデータ) (2025-05-16T16:29:19Z) - Modality-Aware Neuron Pruning for Unlearning in Multimodal Large Language Models [24.30356626130181]
大規模なデータセットでトレーニングされたLarge Language Models(LLM)やMultimodal Large Language Models(MLLM)のような生成モデルは、機密情報を記憶し、不注意に明らかにし、倫理的およびプライバシー上の懸念を提起する。
本研究では,MLLM のための新しい学習フレームワークである Modality Aware Neuron Unlearning (MANU) を提案する。
論文 参考訳(メタデータ) (2025-02-21T19:54:46Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - T-REX: Mixture-of-Rank-One-Experts with Semantic-aware Intuition for Multi-task Large Language Model Finetuning [31.276142111455847]
大規模言語モデル(LLM)は多様なマルチタスクの微調整において重要な適応課題に直面している。
我々はmixunderlinetextbfTureunderlinetextbf-of-underlinetextbfRank-onunderlinetextbfE-eunderlinetextbfXper ts (textttT-REX) という新しいフレームワークを設計する。
Rank-1のエキスパートは、ミックス・アンド・マッチのメカニズムにより、線形パラメータのオーバーヘッドを持つエキスパートのベクトル部分空間を2次に拡張し、最適で近似誤差削減を達成することができる。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。