論文の概要: TruVRF: Towards Triple-Granularity Verification on Machine Unlearning
- arxiv url: http://arxiv.org/abs/2408.06063v1
- Date: Mon, 12 Aug 2024 11:29:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 14:25:27.672113
- Title: TruVRF: Towards Triple-Granularity Verification on Machine Unlearning
- Title(参考訳): TruVRF: 機械学習における3つの特異性検証を目指して
- Authors: Chunyi Zhou, Anmin Fu, Zhiyang Dai,
- Abstract要約: TruVRFは、クラスレベル、ボリュームレベル、サンプルレベルの粒度で動作する非侵襲的な未学習検証フレームワークである。
さまざまな種類の不適切なサーバを検出するために設計された3つのUnlearning-Metricsが含まれている。
TruVRFの堅牢な性能を示し、Metrics IとIIIの90%以上の精度、Metrics IIの4.8%から8.2%の推論偏差を示した。
- 参考スコア(独自算出の注目度): 4.3667223256713745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The concept of the right to be forgotten has led to growing interest in machine unlearning, but reliable validation methods are lacking, creating opportunities for dishonest model providers to mislead data contributors. Traditional invasive methods like backdoor injection are not feasible for legacy data. To address this, we introduce TruVRF, a non-invasive unlearning verification framework operating at class-, volume-, and sample-level granularities. TruVRF includes three Unlearning-Metrics designed to detect different types of dishonest servers: Neglecting, Lazy, and Deceiving. Unlearning-Metric-I checks class alignment, Unlearning-Metric-II verifies sample count, and Unlearning-Metric-III confirms specific sample deletion. Evaluations on three datasets show TruVRF's robust performance, with over 90% accuracy for Metrics I and III, and a 4.8% to 8.2% inference deviation for Metric II. TruVRF also demonstrates generalizability and practicality across various conditions and with state-of-the-art unlearning frameworks like SISA and Amnesiac Unlearning.
- Abstract(参考訳): 忘れられる権利の概念は、機械学習への関心を高めているが、信頼性の高い検証方法が欠如しており、不適切なモデルプロバイダがデータコントリビュータを誤解させる機会を生み出している。
バックドアインジェクションのような従来の侵襲的な手法は、レガシーデータでは実現できない。
そこで本研究では,クラスレベル,ボリュームレベル,サンプルレベルの粒度で動作する非侵襲的未学習検証フレームワークであるTruVRFを紹介する。
TruVRFには、Neglecting、Lazy、Decivingという、さまざまなタイプの不適切なサーバを検出するように設計された3つのUnlearning-Metricsが含まれている。
Unlearning-Metric-Iはクラスアライメントをチェックし、Unlearning-Metric-IIはサンプルカウントを確認し、Unlearning-Metric-IIIは特定のサンプル削除を確認する。
3つのデータセットの評価では、TruVRFの堅牢な性能、Metrics IとIIIの90%以上の精度、Metrics IIの4.8%から8.2%の推論偏差が示されている。
TruVRFはまた、様々な条件や、SISAやAmnesiac Unlearningのような最先端の未学習フレームワークを使って、一般化性と実践性を実証している。
関連論文リスト
- Neural Corrective Machine Unranking [3.2340528215722553]
正解法を定式化し、新しい教師学生の枠組みである正解法無依存蒸留(CuRD)を提案する。
CuRDは、(訓練された)ニューラルIRモデルを調整することで、その出力関連スコアが低レベルの非検索可能なサンプルを模倣するように、忘れることを容易にする。
トレーニングデータセットの1%と20%のセットサイズを忘れる実験は、CuRDが忘れと修正の点で7つの最先端のベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2024-11-13T12:19:46Z) - RESTOR: Knowledge Recovery through Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、望ましくないデータポイントを記憶することができる。
訓練されたモデルからこれらのデータポイントを「消去」することを目的とした、多くの機械学習手法が提案されている。
以下に示す次元に基づいて,機械学習のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Alignment Calibration: Machine Unlearning for Contrastive Learning under Auditing [33.418062986773606]
まず,Machine Unlearning for Contrastive Learning (MUC) の枠組みを提案し,既存の手法を適用した。
我々は,いくつかの手法が未学習者であり,既存の監査ツールがデータ所有者にとって,対照的な学習における未学習の効果を検証するのに十分でないことを観察した。
コントラスト学習の特性を明示的に考慮し,未学習を容易に検証するための新しい指標に最適化することで,アライメント(AC)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-05T19:55:45Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - To Be Forgotten or To Be Fair: Unveiling Fairness Implications of
Machine Unlearning Methods [31.83413902054534]
本研究は,機械の非学習手法について,その妥当性を明らかにするための最初の研究である。
非一様データ削除では、SISAはORTRやAmnesiacMLよりも公正性が高いが、初期トレーニングと均一データ削除は必ずしも3つのメソッドの公平性に影響を与えるわけではない。
論文 参考訳(メタデータ) (2023-02-07T09:48:29Z) - Fraud Detection Using Optimized Machine Learning Tools Under Imbalance
Classes [0.304585143845864]
機械学習(ML)ツールのスマートバージョンによる不正検出は、安全性を保証するために不可欠である。
本稿では,4つの最先端ML手法,すなわちロジスティック回帰,決定木,ランダム森林,極端な勾配上昇について検討する。
フィッシングサイトURLとクレジットカード不正取引データセットは、元のデータに基づいてトレーニングされた極端な勾配が、信頼できるパフォーマンスを示していることを示している。
論文 参考訳(メタデータ) (2022-09-04T15:30:23Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Certifiable Machine Unlearning for Linear Models [1.484852576248587]
機械学習は、トレーニングされたトレーニングデータのサブセットが削除された後、機械学習(ML)モデルを更新するタスクである。
本稿では,線形モデルに対する3つの非学習手法について実験的に検討する。
論文 参考訳(メタデータ) (2021-06-29T05:05:58Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。