論文の概要: PrivacyCD: Hierarchical Unlearning for Protecting Student Privacy in Cognitive Diagnosis
- arxiv url: http://arxiv.org/abs/2511.03966v1
- Date: Thu, 06 Nov 2025 01:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.263216
- Title: PrivacyCD: Hierarchical Unlearning for Protecting Student Privacy in Cognitive Diagnosis
- Title(参考訳): プライバシCD:認知診断における生徒のプライバシ保護のための階層的アンラーニング
- Authors: Mingliang Hou, Yinuo Wang, Teng Guo, Zitao Liu, Wenzhou Dou, Jiaqi Zheng, Renqiang Luo, Mi Tian, Weiqi Luo,
- Abstract要約: 認知診断(CD)モデルから特定の学生データを除去する必要が迫られている。
既存のCDモデルは、プライバシーを考慮せずに設計され、効果的なデータアンラーニング機構が欠如している。
本稿では,階層的重要誘導型忘れ(HIF)という,新規で効率的なアルゴリズムを提案する。
3つの実世界のデータセットの実験では、HIFが主要な指標のベースラインを大幅に上回っている。
- 参考スコア(独自算出の注目度): 22.027021891488683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The need to remove specific student data from cognitive diagnosis (CD) models has become a pressing requirement, driven by users' growing assertion of their "right to be forgotten". However, existing CD models are largely designed without privacy considerations and lack effective data unlearning mechanisms. Directly applying general purpose unlearning algorithms is suboptimal, as they struggle to balance unlearning completeness, model utility, and efficiency when confronted with the unique heterogeneous structure of CD models. To address this, our paper presents the first systematic study of the data unlearning problem for CD models, proposing a novel and efficient algorithm: hierarchical importanceguided forgetting (HIF). Our key insight is that parameter importance in CD models exhibits distinct layer wise characteristics. HIF leverages this via an innovative smoothing mechanism that combines individual and layer, level importance, enabling a more precise distinction of parameters associated with the data to be unlearned. Experiments on three real world datasets show that HIF significantly outperforms baselines on key metrics, offering the first effective solution for CD models to respond to user data removal requests and for deploying high-performance, privacy preserving AI systems
- Abstract(参考訳): 認知診断(CD)モデルから特定の学生データを削除する必要性は、ユーザーが「忘れられる権利」を強く主張することによるプレッシャー要件となっている。
しかし、既存のCDモデルは、プライバシーを考慮せずに設計され、効果的なデータアンラーニング機構が欠如している。
一般目的の非学習アルゴリズムを直接適用することは、CDモデルのユニークな異種構造に直面する場合、非学習完全性、モデル実用性、効率性のバランスをとるのに苦労するため、亜最適である。
そこで本研究では,CDモデルにおけるデータアンラーニングに関する最初の体系的な研究を行い,新しい,効率的なアルゴリズムである階層的重要誘導型忘れ(HIF)を提案する。
我々の重要な洞察は、CDモデルにおけるパラメータの重要性は、異なる層ワイズ特性を示すことである。
HIFは、個々の層と層を組み合わせた革新的な平滑化機構によってこれを活用し、データに関連付けられたパラメータのより正確な区別を可能にする。
3つの実世界のデータセットの実験によると、HIFは主要な指標のベースラインを大幅に上回り、CDモデルがユーザデータ削除要求に応答し、ハイパフォーマンスでプライバシ保護のAIシステムをデプロイする最初の効果的なソリューションを提供する。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Privacy-Aware Lifelong Learning [14.83033354320841]
機械学習の分野は、要求された時に事前訓練されたモデルから、ある以前の知識を明示的に忘れることに焦点を当てている。
本稿では,タスク固有のスパースワークとパラメータ共有の最適化を含む,プライバシを意識した生涯学習(PALL)を提案する。
画像分類におけるPALLのスケーラビリティを実証的に実証し,最先端のソリューションを提供する。
論文 参考訳(メタデータ) (2025-05-16T07:27:00Z) - Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy and Research [186.53450963176968]
「マシーン・アンラーニング」は、法的・道徳的な理由から問題となるAIモデルにおけるコンテンツの存在を緩和するための解決策である。
ML研究者や政策立案者がこれらの課題について厳格に考えるためのフレームワークを提供する。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Identify Backdoored Model in Federated Learning via Individual Unlearning [7.200910949076064]
裏口攻撃は、フェデレートラーニング(FL)の堅牢性に重大な脅威をもたらす
FLにおける悪意のあるモデルを特定するために,ローカルモデル上で個別の未学習を利用する手法であるMASAを提案する。
私たちの知る限りでは、FLの悪意あるモデルを特定するために機械学習を活用するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-11-01T21:19:47Z) - Silver Linings in the Shadows: Harnessing Membership Inference for Machine Unlearning [7.557226714828334]
ニューラルネットワークから特定のデータサンプルの影響を除去する新しい学習機構を提案する。
この目的を達成するために、我々は、ターゲットモデルの重みやアクティベーション値からプライバシーに敏感な情報を排除するための、新しい損失関数を構築した。
本研究の結果は,未学習の有効性とレイテンシ,および主課題の忠実度の観点から,我々のアプローチの優れた性能を示すものである。
論文 参考訳(メタデータ) (2024-07-01T00:20:26Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Erasing Undesirable Influence in Diffusion Models [51.225365010401006]
拡散モデルは高品質な画像を生成するのに非常に効果的であるが、NSFW(職場では安全ではない)コンテンツの意図しない生成のようなリスクを引き起こす。
本研究では,データに関連付けられた不要な情報を取り除き,保存データに対する拡散モデルの実用性を維持するために設計されたアルゴリズムであるEraseDiffを紹介する。
論文 参考訳(メタデータ) (2024-01-11T09:30:36Z) - Bottlenecks CLUB: Unifying Information-Theoretic Trade-offs Among
Complexity, Leakage, and Utility [8.782250973555026]
ボトルネック問題(英: Bottleneck problem)は、機械学習と情報理論の分野において近年注目を集めている最適化問題の重要なクラスである。
本稿では,複雑性推論ユーティリティ・ボトルネック(CLUB)モデルと呼ばれる最適化問題の一般的なファミリーを提案する。
CLUBモデルは、他の情報理論プライバシモデルと同様に、これらの問題を一般化する。
論文 参考訳(メタデータ) (2022-07-11T14:07:48Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。