論文の概要: P-MIA: A Profiled-Based Membership Inference Attack on Cognitive Diagnosis Models
- arxiv url: http://arxiv.org/abs/2511.04716v1
- Date: Thu, 06 Nov 2025 01:53:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.548761
- Title: P-MIA: A Profiled-Based Membership Inference Attack on Cognitive Diagnosis Models
- Title(参考訳): P-MIA:認知診断モデルにおけるプロファイルベースメンバーシップ推論攻撃
- Authors: Mingliang Hou, Yinuo Wang, Teng Guo, Zitao Liu, Wenzhou Dou, Jiaqi Zheng, Renqiang Luo, Mi Tian, Weiqi Luo,
- Abstract要約: 本論文は,認知診断モデル(CDM)に対するMIA(Community Inference attack)を系統的に調査した最初の事例である。
これらのプラットフォームの説明可能性を利用した,斬新で現実的なグレーボックス脅威モデルを提案する。
モデルの最終予測確率と内部知識状態ベクトルを特徴とするプロファイルベースのMIAフレームワークを提案する。
- 参考スコア(独自算出の注目度): 22.027021891488683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cognitive diagnosis models (CDMs) are pivotal for creating fine-grained learner profiles in modern intelligent education platforms. However, these models are trained on sensitive student data, raising significant privacy concerns. While membership inference attacks (MIA) have been studied in various domains, their application to CDMs remains a critical research gap, leaving their privacy risks unquantified. This paper is the first to systematically investigate MIA against CDMs. We introduce a novel and realistic grey box threat model that exploits the explainability features of these platforms, where a model's internal knowledge state vectors are exposed to users through visualizations such as radar charts. We demonstrate that these vectors can be accurately reverse-engineered from such visualizations, creating a potent attack surface. Based on this threat model, we propose a profile-based MIA (P-MIA) framework that leverages both the model's final prediction probabilities and the exposed internal knowledge state vectors as features. Extensive experiments on three real-world datasets against mainstream CDMs show that our grey-box attack significantly outperforms standard black-box baselines. Furthermore, we showcase the utility of P-MIA as an auditing tool by successfully evaluating the efficacy of machine unlearning techniques and revealing their limitations.
- Abstract(参考訳): 認知診断モデル(CDM)は、現代の知的教育プラットフォームにおいて、きめ細かい学習者プロファイルを作成する上で重要である。
しかし、これらのモデルは繊細な学生データに基づいて訓練されており、プライバシー上の懸念を生じさせている。
メンバーシップ推論攻撃(MIA)は様々な領域で研究されているが、CDMへの適用は依然として重要な研究ギャップであり、プライバシーリスクは未確立のままである。
本論文は,CDMに対するMIAを系統的に検討した最初の論文である。
モデルの内部知識状態ベクトルを,レーダチャートなどの可視化を通じてユーザに公開する,これらのプラットフォームにおける説明可能性の特徴を活用した,斬新で現実的な灰色のボックス脅威モデルを提案する。
これらのベクトルは、このような視覚化から正確に逆エンジニアリングされ、強力な攻撃面が生成されることを実証する。
この脅威モデルに基づいて,モデルの最終予測確率と内部知識状態ベクトルを特徴とするプロファイルベースMIA(P-MIA)フレームワークを提案する。
メインストリームのCDMに対する3つの実世界のデータセットに対する大規模な実験は、我々のグレーボックス攻撃が標準のブラックボックスベースラインを大幅に上回っていることを示している。
さらに,P-MIAを監査ツールとして活用し,機械学習手法の有効性を評価し,その限界を明らかにする。
関連論文リスト
- Neural Breadcrumbs: Membership Inference Attacks on LLMs Through Hidden State and Attention Pattern Analysis [9.529147118376464]
メンバーシップ推論攻撃(MIA)は、特定のデータが機械学習モデルのトレーニングに使用されたかどうかを明らかにする。
我々の研究は、内部表現を単に出力ではなく検査することで、メンバーシップ推論信号に対するさらなる洞察を与えることができるかを探る。
本研究は,出力に基づく信号が保護された場合でも,内部モデル行動がトレーニングデータの露出の側面を明らかにすることを示唆している。
論文 参考訳(メタデータ) (2025-09-05T19:05:49Z) - Evaluating the Defense Potential of Machine Unlearning against Membership Inference Attacks [0.0]
メンバーシップ推論攻撃(MIA)は、モデルのトレーニングデータセットに特定のデータポイントが含まれているかどうかを敵が判断することを可能にする。
機械学習は本質的にMIA対策ではないものの、学習アルゴリズムとデータ特性はモデルの脆弱性に大きな影響を及ぼす可能性がある。
この研究は、機械学習とMIAの相互作用に関する重要な洞察を提供し、プライバシを保存する機械学習システムの設計のためのガイダンスを提供する。
論文 参考訳(メタデータ) (2025-08-22T07:19:33Z) - A Systematic Survey of Model Extraction Attacks and Defenses: State-of-the-Art and Perspectives [65.3369988566853]
近年の研究では、敵が対象モデルの機能を複製できることが示されている。
モデル抽出攻撃は知的財産権、プライバシー、システムのセキュリティに脅威をもたらす。
本稿では,攻撃機構,防衛手法,計算環境に応じてMEAを分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-08-20T19:49:59Z) - On Transfer-based Universal Attacks in Pure Black-box Setting [94.92884394009288]
攻撃性能における対象モデルデータの事前知識とクラス数の役割について検討する。
また、分析に基づいていくつかの興味深い洞察を与え、先行が伝達可能性スコアの過大評価を引き起こすことを示した。
論文 参考訳(メタデータ) (2025-04-11T10:41:20Z) - Membership Inference Attacks on Large-Scale Models: A Survey [5.795582095405318]
メンバーシップ推論攻撃(MIA)は、プライバシーリスクを暴露または評価するための重要なテクニックである。
大規模言語モデル(LLM)と大規模マルチモーダルモデル(LMM)を対象とするMIAの総合的なレビューを初めて行った。
先行調査とは違って,事前学習,微調整,アライメント,検索・拡張生成(RAG)など,モデルパイプラインの複数段階にわたるMIAについて検討する。
論文 参考訳(メタデータ) (2025-03-25T04:11:47Z) - Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - MF-CLIP: Leveraging CLIP as Surrogate Models for No-box Adversarial Attacks [65.86360607693457]
敵に事前の知識がないノンボックス攻撃は、実際的な関連性にもかかわらず、比較的過小評価されている。
本研究は,大規模ビジョン・ランゲージ・モデル(VLM)をノンボックス・アタックの実行のための代理モデルとして活用するための体系的な研究である。
理論的および実証的な分析により,バニラCLIPを直接サロゲートモデルとして適用するための識別能力の不足に起因するno-boxアタックの実行に重要な制限があることが判明した。
MF-CLIP(MF-CLIP: MF-CLIP)はCLIPのサロゲートモデルとしての有効性を高める新しいフレームワークである。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。