論文の概要: Control, Confidentiality, and the Right to be Forgotten
- arxiv url: http://arxiv.org/abs/2210.07876v2
- Date: Mon, 4 Dec 2023 16:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 02:04:24.746307
- Title: Control, Confidentiality, and the Right to be Forgotten
- Title(参考訳): コントロール、機密性、忘れられる権利
- Authors: Aloni Cohen, Adam Smith, Marika Swanberg, Prashant Nalini Vasudevan
- Abstract要約: 我々は新しい形式主義である削除・アズ・コントロールを提案する。
削除前にユーザーのデータを自由に使用でき、削除後に意味のある要件を課すことができる。
社会機能に応用し、様々な機械学習定義の統一的なビューを提供する。
- 参考スコア(独自算出の注目度): 7.568881327572535
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent digital rights frameworks give users the right to delete their data
from systems that store and process their personal information (e.g., the
"right to be forgotten" in the GDPR). How should deletion be formalized in
complex systems that interact with many users and store derivative information?
We argue that prior approaches fall short. Definitions of machine unlearning
Cao and Yang [2015] are too narrowly scoped and do not apply to general
interactive settings. The natural approach of deletion-as-confidentiality Garg
et al. [2020] is too restrictive: by requiring secrecy of deleted data, it
rules out social functionalities. We propose a new formalism:
deletion-as-control. It allows users' data to be freely used before deletion,
while also imposing a meaningful requirement after deletion--thereby giving
users more control. Deletion-as-control provides new ways of achieving deletion
in diverse settings. We apply it to social functionalities, and give a new
unified view of various machine unlearning definitions from the literature.
This is done by way of a new adaptive generalization of history independence.
Deletion-as-control also provides a new approach to the goal of machine
unlearning, that is, to maintaining a model while honoring users' deletion
requests. We show that publishing a sequence of updated models that are
differentially private under continual release satisfies deletion-as-control.
The accuracy of such an algorithm does not depend on the number of deleted
points, in contrast to the machine unlearning literature.
- Abstract(参考訳): 最近のデジタル著作権フレームワークは、利用者に個人情報を保管して処理するシステム(GDPRの「忘れられる権利」など)からデータを削除する権利を与える。
多数のユーザと対話し、デリバティブ情報を格納する複雑なシステムでは、どのように削除を形式化するべきか?
我々は事前のアプローチが不足していると論じる。
機械学習の Cao と Yang [2015] の定義はスコープが狭すぎ、一般的なインタラクティブな設定には適用できない。
Deletion-as-confidentiality Garg et al. の自然なアプローチ
削除されたデータの機密性を要求することによって、社会的機能を排除する。
我々は新しい形式である削除・制御を提案する。
削除前にデータを自由に使用することができ、削除後に意味のある要件を課すことができる。
deletion-as-controlは、さまざまな設定でdeletionを実現する新しい方法を提供する。
社会機能に応用し、文献からの様々な機械学習定義の統一的なビューを提供する。
これは歴史独立性の新しい適応的一般化によって行われる。
deletion-as-controlはまた、モデルを維持しながらユーザの削除要求を尊重する、機械学習の目標に対する新しいアプローチを提供する。
連続的なリリースの下で異なるプライベートな更新モデル列が削除・削除・制御を満足することを示す。
このようなアルゴリズムの精度は、機械学習の文献とは対照的に、削除された点の数に依存しない。
関連論文リスト
- Reliable and Efficient Concept Erasure of Text-to-Image Diffusion Models [76.39651111467832]
本稿では,Reliable and Efficient Concept Erasure (RECE)を提案する。
派生した埋め込みによって表現される不適切なコンテンツを緩和するために、RECEはそれらをクロスアテンション層における無害な概念と整合させる。
新たな表現埋め込みの導出と消去を反復的に行い、不適切な概念の徹底的な消去を実現する。
論文 参考訳(メタデータ) (2024-07-17T08:04:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Continual Forgetting for Pre-trained Vision Models [70.51165239179052]
現実のシナリオでは、選択的な情報は事前訓練されたモデルから継続的に取り除かれることが期待される。
効率的な削除のためのグループスパースロラ(GS-LoRA)を提案する。
我々は,顔認識,物体検出,画像分類に関する広範な実験を行い,GS-LoRAが他のクラスに最小限の影響で,特定のクラスを忘れることが実証された。
論文 参考訳(メタデータ) (2024-03-18T07:33:56Z) - LEACE: Perfect linear concept erasure in closed form [103.61624393221447]
概念消去は、特定の特徴を表現から削除することを目的としている。
LEAst-squares Concept Erasure (LEACE) は、線形分類器が可能な限り少ない表現で概念を検出することを確実に防止する閉形式手法である。
LEACEを"concept scrubbing"と呼ばれる新しい手法で大規模言語モデルに適用し、ネットワーク内の各層からターゲット概念情報を消去する。
論文 参考訳(メタデータ) (2023-06-06T16:07:24Z) - Approximate Data Deletion in Generative Models [5.596752018167751]
生成モデルのための密度比に基づくフレームワークを提案する。
トレーニングポイントが削除されたか否かを推定するための高速なデータ削除法と統計テストを導入する。
論文 参考訳(メタデータ) (2022-06-29T07:24:39Z) - Deletion Inference, Reconstruction, and Compliance in Machine
(Un)Learning [21.404426803200796]
機械学習モデルに対するプライバシ攻撃は、そのようなモデルをトレーニングするために使用されるデータを特定することを目的としている。
多くの機械学習メソッドが最近、機械学習をサポートするように拡張されている。
論文 参考訳(メタデータ) (2022-02-07T19:02:58Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Adaptive Machine Unlearning [21.294828533009838]
SISフレキシブルリトレーニングは、完全にトレーニングされたモデルよりも安価な計算リトレーニングで、モデルから削除されたデータポイントを削除することを目的としている。
我々は、事前の作業が非適応的削除シーケンスの保証をいかに与え、非常に強力なアルゴリズムに対して強力な証明可能な削除保証を与えるかを示す。
論文 参考訳(メタデータ) (2021-06-08T14:11:53Z) - Compressive Summarization with Plausibility and Salience Modeling [54.37665950633147]
本稿では,候補空間に対する厳密な構文的制約を緩和し,その代わりに圧縮決定を2つのデータ駆動基準,すなわち妥当性とサリエンスに委ねることを提案する。
提案手法は,ベンチマーク要約データセット上で強いドメイン内結果を得るとともに,人間による評価により,文法的および事実的削除に対して,可算性モデルが一般的に選択されることを示す。
論文 参考訳(メタデータ) (2020-10-15T17:07:10Z) - Machine Unlearning: Linear Filtration for Logit-based Classifiers [2.174931329479201]
最近制定された法律では、個人が自分の個人データがどんな風に使用されるかを決める権利を付与している。
これは、個人がデータの使用許可を取り除いた場合、どのように進むかという機械学習に挑戦する。
論文 参考訳(メタデータ) (2020-02-07T12:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。