論文の概要: GONE: Structural Knowledge Unlearning via Neighborhood-Expanded Distribution Shaping
- arxiv url: http://arxiv.org/abs/2603.12275v1
- Date: Sat, 21 Feb 2026 04:08:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.199265
- Title: GONE: Structural Knowledge Unlearning via Neighborhood-Expanded Distribution Shaping
- Title(参考訳): GONE: 周辺展開型配電方式による構造知識の学習
- Authors: Chahana Dahal, Ashutosh Balasubramaniam, Zuobin Xiong,
- Abstract要約: 本稿では,Large Language Models (LLMs) における構造化知識グラフ (KG) 事実に対する知識未学習の評価ベンチマークである Graph Oblivion and Node Erasure (GONE) を紹介する。
このKGベースのベンチマークは、直接事実除去、推論に基づくリーク、破滅的な忘れという3つの非学習効果の解離を可能にする。
新たなアンラーニングフレームワークであるNEDSは、グラフ接続を活用してアンカー関係の隣人を識別し、忘れられた事実とそのセマンティック・エリア間の正確な決定境界を強制するように設計されている。
- 参考スコア(独自算出の注目度): 4.740962650068887
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlearning knowledge is a pressing and challenging task in Large Language Models (LLMs) because of their unprecedented capability to memorize and digest training data at scale, raising more significant issues regarding safety, privacy, and intellectual property. However, existing works, including parameter editing, fine-tuning, and distillation-based methods, are all focused on flat sentence-level data but overlook the relational, multi-hop, and reasoned knowledge in naturally structured data. In response to this gap, this paper introduces Graph Oblivion and Node Erasure (GONE), a benchmark for evaluating knowledge unlearning over structured knowledge graph (KG) facts in LLMs. This KG-based benchmark enables the disentanglement of three effects of unlearning: direct fact removal, reasoning-based leakage, and catastrophic forgetting. In addition, Neighborhood-Expanded Distribution Shaping (NEDS), a novel unlearning framework, is designed to leverage graph connectivity and identify anchor correlated neighbors, enforcing a precise decision boundary between the forgotten fact and its semantic neighborhood. Evaluations on LLaMA-3-8B and Mistral-7B across multiple knowledge editing and unlearning methods showcase NEDS's superior performance (1.000 on unlearning efficacy and 0.839 on locality) on GONE and other benchmarks. Code is available at https://anonymous.4open.science/r/GONE-4679/.
- Abstract(参考訳): アンラーニング知識は、大規模言語モデル(LLM)において、トレーニングデータを大規模に記憶し、消化する前例のない能力によって、安全性、プライバシ、知的財産に関するより重要な問題を引き起こすため、迫り強い課題である。
しかし, パラメータ編集, 微調整, 蒸留法などの既存の研究は, すべて平らな文レベルのデータに焦点を合わせているが, 自然に構造化されたデータにおいて, 関係性, マルチホップ, 理性的な知識を見落としている。
このギャップに対応するために、LLMにおける構造化知識グラフ(KG)事実に対する知識未学習を評価するベンチマークであるGraph Oblivion and Node Erasure(GONE)を紹介する。
このKGベースのベンチマークは、直接事実除去、推論に基づくリーク、破滅的な忘れという3つの非学習効果の解離を可能にする。
さらに、新しい非学習フレームワークであるNeighborhood-Expanded Distribution Shaping (NEDS) は、グラフ接続を利用して、忘れられた事実とそのセマンティックな近所の正確な決定境界を強制し、アンカー関係の隣人を識別するように設計されている。
複数の知識編集および未学習手法によるLLaMA-3-8BとMistral-7Bの評価は、GONEや他のベンチマーク上でNEDSの優れた性能(未学習の有効性は1.000、局所性は0.839)を示す。
コードはhttps://anonymous.4open.science/r/GONE-4679/で公開されている。
関連論文リスト
- Knowledge Homophily in Large Language Models [75.12297135039776]
大規模言語モデル(LLM)における類似知識のホモフィリパターンについて検討する。
我々は LLM の知識を三重項レベルと実体レベルの両方の知識チェックを通じてグラフ表現にマッピングする。
このホモフィリ原理により、三重項の実体レベルの知識度スコアを推定するグラフニューラルネットワーク(GNN)回帰モデルを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:40:27Z) - Paths to Causality: Finding Informative Subgraphs Within Knowledge Graphs for Knowledge-Based Causal Discovery [10.573861741540853]
本稿では,知識グラフ(KG)をLarge Language Models(LLM)と統合し,知識に基づく因果探索を強化する新しい手法を提案する。
本稿では,KGs内の情報的メタパスに基づくサブグラフを特定し,ラーニング・トゥ・ランクモデルを用いて,これらのサブグラフの選択をさらに洗練する。
本手法は,F1スコアにおいて最大44.4ポイントのベースラインを上回り,多種多様LLMおよびKGで評価した。
論文 参考訳(メタデータ) (2025-06-10T13:13:55Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - Learn to Unlearn: Meta-Learning-Based Knowledge Graph Embedding Unlearning [11.836591995678612]
本稿ではメタラーニングに基づく知識グラフ埋め込みアンラーニングフレームワークであるMetaEUを紹介する。
ベンチマークデータセットの実験では、未学習のKG埋め込みの有効性が示されている。
論文 参考訳(メタデータ) (2024-12-01T16:43:04Z) - How Data Inter-connectivity Shapes LLMs Unlearning: A Structural Unlearning Perspective [29.924482732745954]
既存のアプローチでは、忘れられるべきデータポイントは独立であり、接続性を無視していると仮定している。
構造データセットをコンパイルする手法であるPISTOLを提案する。
論文 参考訳(メタデータ) (2024-06-24T17:22:36Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。