論文の概要: Towards Certified Unlearning for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2408.00920v2
- Date: Wed, 11 Dec 2024 23:07:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:29:58.243786
- Title: Towards Certified Unlearning for Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークの認定アンラーニングに向けて
- Authors: Binchi Zhang, Yushun Dong, Tianhao Wang, Jundong Li,
- Abstract要約: 認定されていない未学習は、凸機械学習モデルで広く研究されている。
認定アンラーニングとディープニューラルネットワーク(DNN)のギャップを埋める手法をいくつか提案する。
- 参考スコア(独自算出の注目度): 50.816473152067104
- License:
- Abstract: In the field of machine unlearning, certified unlearning has been extensively studied in convex machine learning models due to its high efficiency and strong theoretical guarantees. However, its application to deep neural networks (DNNs), known for their highly nonconvex nature, still poses challenges. To bridge the gap between certified unlearning and DNNs, we propose several simple techniques to extend certified unlearning methods to nonconvex objectives. To reduce the time complexity, we develop an efficient computation method by inverse Hessian approximation without compromising certification guarantees. In addition, we extend our discussion of certification to nonconvergence training and sequential unlearning, considering that real-world users can send unlearning requests at different time points. Extensive experiments on three real-world datasets demonstrate the efficacy of our method and the advantages of certified unlearning in DNNs.
- Abstract(参考訳): 機械学習の分野では、高い効率と強力な理論的保証のために、認定された未学習が凸機械学習モデルで広く研究されている。
しかし、その非凸性で知られているディープニューラルネットワーク(DNN)への応用は、依然として課題となっている。
認定アンラーニングとDNNのギャップを埋めるために,認定アンラーニング手法を非凸目的に拡張するためのいくつかの簡単な手法を提案する。
時間的複雑性を低減するため,認証保証を妥協することなく,逆ヘッセン近似による効率的な計算法を開発した。
さらに、実世界のユーザが異なる時間ポイントで未学習の要求を送信できることを考慮して、非収束トレーニングやシーケンシャルアンラーニングに認定に関する議論を拡大する。
3つの実世界のデータセットに対する大規模な実験は、我々の手法の有効性と、DNNにおける認定未学習の利点を実証している。
関連論文リスト
- Apprenticeship-Inspired Elegance: Synergistic Knowledge Distillation Empowers Spiking Neural Networks for Efficient Single-Eye Emotion Recognition [53.359383163184425]
本稿では, 効率的な単一眼球運動認識タスクに適した, マルチモーダル・シナジスティック知識蒸留方式を提案する。
この方法では、軽量で単調な学生スパイクニューラルネットワーク(SNN)が、イベントフレームマルチモーダル教師ネットワークから豊富な知識を抽出することができる。
論文 参考訳(メタデータ) (2024-06-20T07:24:47Z) - zkDL: Efficient Zero-Knowledge Proofs of Deep Learning Training [6.993329554241878]
ZkDLは、ディープラーニングトレーニングのための効率的なゼロ知識証明である。
zkReLUは、ReLU活性化とそのバックプロパゲーションの特別な証明である。
FAC4DNNはニューラルネットワークをモデル化する特殊な演算回路設計である。
論文 参考訳(メタデータ) (2023-07-30T16:41:13Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Deep Q-Learning based Reinforcement Learning Approach for Network
Intrusion Detection [1.7205106391379026]
本稿では,Qラーニングに基づく強化学習と,ネットワーク侵入検出のためのディープフィードフォワードニューラルネットワークを併用したネットワーク侵入検出手法を提案する。
提案するDeep Q-Learning(DQL)モデルは,ネットワーク環境に対する継続的な自動学習機能を提供する。
実験の結果,提案したDQLは,異なる侵入クラスを検出し,他の類似した機械学習手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-27T20:18:00Z) - Data-efficient Weakly-supervised Learning for On-line Object Detection
under Domain Shift in Robotics [24.878465999976594]
文献では、Deep Convolutional Neural Networks (DCNNs)に基づく多数のオブジェクト検出方法が提案されている。
これらの手法はロボティクスに重要な制限がある:オフラインデータのみに学習するとバイアスが発生し、新しいタスクへの適応を防ぐことができる。
本研究では,弱い教師付き学習がこれらの問題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2020-12-28T16:36:11Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。