論文の概要: Control, Confidentiality, and the Right to be Forgotten
- arxiv url: http://arxiv.org/abs/2210.07876v1
- Date: Fri, 14 Oct 2022 14:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:42:06.508676
- Title: Control, Confidentiality, and the Right to be Forgotten
- Title(参考訳): コントロール、機密性、忘れられる権利
- Authors: Aloni Cohen, Adam Smith, Marika Swanberg, Prashant Nalini Vasudevan
- Abstract要約: 削除・アズ・コントロールに関する既存の作業は、(適応的な)歴史独立の言語で再編成できると主張している。
削除という直感的な概念と形式的定義を満足するコントローラのクラスを示すが、これは以前のアプローチの範囲外である。
- 参考スコア(独自算出の注目度): 5.708271964961975
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent digital rights frameworks stipulate an ability (e.g., the ``right to
be forgotten'' embodied in the GDPR and CCPA) to request that a \textit{data
controller} -- roughly, any system that stores and manipulates personal
information -- \emph{delete} one's data. We ask how deletion should be
formalized in complex systems that interact with many parties and store
derivative information. There are two broad principles at work in existing
approaches to formalizing deletion: \emph{confidentiality} and \emph{control}.
We build a unified formalism for deletion that encompasses previous approaches
as special cases. We argue that existing work on deletion-as-control (in
particular, ``machine unlearning'') can be reframed in the language of
(adaptive) history independence, for which we provide a general definition. We
also show classes of controllers, such as those that publish differentially
private statistics without later updating them, that satisfy intuitive notions
of deletion and our formal definition, but which fall outside the scope of
previous approaches.
- Abstract(参考訳): 最近のデジタル著作権フレームワークは、GDPRとCCPAに具体化されている「忘れられる権利」を規定しており、大まかに言えば、個人情報を保管し、操作するシステム -- データのemph{delete} を要求している。
我々は、多くの当事者と相互作用しデリバティブ情報を格納する複雑なシステムにおいて、どのように削除を形式化するべきかを問う。
削除を形式化する既存のアプローチには、2つの幅広い原則がある: \emph{confidentiality} と \emph{control} である。
我々は、以前のアプローチを特別なケースとして包含する削除のための統一形式を構築します。
削除・アズ・コントロール(特に ``machine unlearning''' )に関する既存の作業は、(適応的な)歴史独立の言語で再フレーム化することができ、一般的な定義を提供する。
また、後から更新することなく微分プライベートな統計を公開し、削除という直感的な概念と形式的定義を満足するコントローラのクラスも示すが、これは以前のアプローチの範囲外である。
関連論文リスト
- Reliable and Efficient Concept Erasure of Text-to-Image Diffusion Models [76.39651111467832]
本稿では,Reliable and Efficient Concept Erasure (RECE)を提案する。
派生した埋め込みによって表現される不適切なコンテンツを緩和するために、RECEはそれらをクロスアテンション層における無害な概念と整合させる。
新たな表現埋め込みの導出と消去を反復的に行い、不適切な概念の徹底的な消去を実現する。
論文 参考訳(メタデータ) (2024-07-17T08:04:28Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Continual Forgetting for Pre-trained Vision Models [70.51165239179052]
現実のシナリオでは、選択的な情報は事前訓練されたモデルから継続的に取り除かれることが期待される。
効率的な削除のためのグループスパースロラ(GS-LoRA)を提案する。
我々は,顔認識,物体検出,画像分類に関する広範な実験を行い,GS-LoRAが他のクラスに最小限の影響で,特定のクラスを忘れることが実証された。
論文 参考訳(メタデータ) (2024-03-18T07:33:56Z) - LEACE: Perfect linear concept erasure in closed form [103.61624393221447]
概念消去は、特定の特徴を表現から削除することを目的としている。
LEAst-squares Concept Erasure (LEACE) は、線形分類器が可能な限り少ない表現で概念を検出することを確実に防止する閉形式手法である。
LEACEを"concept scrubbing"と呼ばれる新しい手法で大規模言語モデルに適用し、ネットワーク内の各層からターゲット概念情報を消去する。
論文 参考訳(メタデータ) (2023-06-06T16:07:24Z) - Approximate Data Deletion in Generative Models [5.596752018167751]
生成モデルのための密度比に基づくフレームワークを提案する。
トレーニングポイントが削除されたか否かを推定するための高速なデータ削除法と統計テストを導入する。
論文 参考訳(メタデータ) (2022-06-29T07:24:39Z) - Deletion Inference, Reconstruction, and Compliance in Machine
(Un)Learning [21.404426803200796]
機械学習モデルに対するプライバシ攻撃は、そのようなモデルをトレーニングするために使用されるデータを特定することを目的としている。
多くの機械学習メソッドが最近、機械学習をサポートするように拡張されている。
論文 参考訳(メタデータ) (2022-02-07T19:02:58Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z) - Adaptive Machine Unlearning [21.294828533009838]
SISフレキシブルリトレーニングは、完全にトレーニングされたモデルよりも安価な計算リトレーニングで、モデルから削除されたデータポイントを削除することを目的としている。
我々は、事前の作業が非適応的削除シーケンスの保証をいかに与え、非常に強力なアルゴリズムに対して強力な証明可能な削除保証を与えるかを示す。
論文 参考訳(メタデータ) (2021-06-08T14:11:53Z) - Compressive Summarization with Plausibility and Salience Modeling [54.37665950633147]
本稿では,候補空間に対する厳密な構文的制約を緩和し,その代わりに圧縮決定を2つのデータ駆動基準,すなわち妥当性とサリエンスに委ねることを提案する。
提案手法は,ベンチマーク要約データセット上で強いドメイン内結果を得るとともに,人間による評価により,文法的および事実的削除に対して,可算性モデルが一般的に選択されることを示す。
論文 参考訳(メタデータ) (2020-10-15T17:07:10Z) - Machine Unlearning: Linear Filtration for Logit-based Classifiers [2.174931329479201]
最近制定された法律では、個人が自分の個人データがどんな風に使用されるかを決める権利を付与している。
これは、個人がデータの使用許可を取り除いた場合、どのように進むかという機械学習に挑戦する。
論文 参考訳(メタデータ) (2020-02-07T12:16:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。