論文の概要: Machine Unlearning: its nature, scope, and importance for a "delete
culture"
- arxiv url: http://arxiv.org/abs/2305.15242v1
- Date: Wed, 24 May 2023 15:27:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 14:49:06.986062
- Title: Machine Unlearning: its nature, scope, and importance for a "delete
culture"
- Title(参考訳): マシン・アンラーニング : その性質、スコープ、そして「削除文化」の重要性
- Authors: Luciano Floridi
- Abstract要約: 本稿では,デジタル時代における記録から情報削除への文化的変化について考察する。
このコンテキストでは、削除、情報の入手不能化、アクセス不能化の2つの戦略に焦点を当てている。
マシン・アンラーニング(MU)の新たな研究領域は潜在的な解決策として強調されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The article explores the cultural shift from recording to deleting
information in the digital age and its implications on privacy, intellectual
property (IP), and Large Language Models like ChatGPT. It begins by defining a
delete culture where information, in principle legal, is made unavailable or
inaccessible because unacceptable or undesirable, especially but not only due
to its potential to infringe on privacy or IP. Then it focuses on two
strategies in this context: deleting, to make information unavailable; and
blocking, to make it inaccessible. The article argues that both strategies have
significant implications, particularly for machine learning (ML) models where
information is not easily made unavailable. However, the emerging research area
of Machine Unlearning (MU) is highlighted as a potential solution. MU, still in
its infancy, seeks to remove specific data points from ML models, effectively
making them 'forget' completely specific information. If successful, MU could
provide a feasible means to manage the overabundance of information and ensure
a better protection of privacy and IP. However, potential ethical risks, such
as misuse, overuse, and underuse of MU, should be systematically studied to
devise appropriate policies.
- Abstract(参考訳): この記事では、デジタル時代の情報を記録から削除する文化の変化と、プライバシ、知的財産権(IP)、ChatGPTのような大規模言語モデルへの影響について説明する。
プライバシやIPを侵害する可能性があるためだけでなく、容認できない、あるいは望ましくないために、情報が利用できない、あるいはアクセスできない、削除文化を定義することから始まる。
次に、このコンテキストにおける2つの戦略に焦点を当てる。削除、情報の入手不能化、アクセス不能化のためのブロッキングである。
この記事は、どちらの戦略も重要な意味を持ち、特に情報が利用できない機械学習(ml)モデルについて論じている。
しかし、機械学習(mu)の新たな研究領域は、潜在的な解決策として強調されている。
MUはまだ初期段階で、MLモデルから特定のデータポイントを削除し、効果的に完全に特定の情報を“忘れる”ことを目指している。
もし成功すれば、MUは情報の過剰さを管理し、プライバシーとIPのより優れた保護を確保するための実現可能な手段を提供することができる。
しかし、MUの誤用、過剰使用、未使用などの潜在的な倫理的リスクは、適切な政策を策定するために体系的に研究されるべきである。
関連論文リスト
- Machine Unlearning Doesn't Do What You Think: Lessons for Generative AI Policy, Research, and Practice [186.055899073629]
非学習はしばしば、生成AIモデルからターゲット情報の影響を取り除くソリューションとして呼び出される。
未学習はまた、モデルが出力中にターゲットとなるタイプの情報を生成するのを防ぐ方法として提案されている。
これら2つの目標 - モデルからの情報の標的的除去と、モデル出力からの情報のターゲット的抑制 - は、様々な技術的および現実的な課題を表す。
論文 参考訳(メタデータ) (2024-12-09T20:18:43Z) - Game-Theoretic Machine Unlearning: Mitigating Extra Privacy Leakage [12.737028324709609]
最近の法律では、要求されたデータとその影響を訓練されたモデルから取り除くことが義務付けられている。
本研究では,非学習性能とプライバシ保護の競合関係をシミュレートするゲーム理論マシンアンラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-06T13:47:04Z) - CodeUnlearn: Amortized Zero-Shot Machine Unlearning in Language Models Using Discrete Concept [5.345828824625758]
コードブック機能とスパースオートエンコーダ(SAEs)を用いた新しいアンラーニング手法を提案する。
ボトルネックを利用して、アクティベーション空間を分解し、情報の流れを規制することにより、モデルの性能を無関係なデータに保ちながら、ターゲットとなる情報を効率的に解き放つ。
論文 参考訳(メタデータ) (2024-10-08T10:26:22Z) - MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - UnUnlearning: Unlearning is not sufficient for content regulation in advanced generative AI [50.61495097098296]
大規模言語モデル(LLM)におけるアンラーニングのパラダイムを再考する。
未学習の概念を導入し、未学習の知識を文脈内で再導入する。
我々は、不寛容な知識に対するコンテンツフィルタリングが不可欠であり、正確な未学習スキームでさえ、効果的なコンテンツ規制には不十分であると主張している。
論文 参考訳(メタデータ) (2024-06-27T10:24:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Threats, Attacks, and Defenses in Machine Unlearning: A Survey [14.03428437751312]
マシン・アンラーニング(MU)は、Safe AIを達成する可能性から、最近かなりの注目を集めている。
この調査は、機械学習における脅威、攻撃、防衛に関する広範な研究のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-03-20T15:40:18Z) - Can Sensitive Information Be Deleted From LLMs? Objectives for Defending
Against Extraction Attacks [73.53327403684676]
本稿では,モデル重みから直接センシティブな情報を削除する作業を研究するためのアタック・アンド・ディフェンスフレームワークを提案する。
モデル重み付けへの直接的編集について検討する。この手法は、削除された情報が将来的な攻撃によって抽出されないことを保証すべきである。
我々のホワイトボックスやブラックボックス攻撃は、編集されたモデルの38%から「削除された」情報を復元できるので、ROMEのような最先端のモデル編集方法でさえ、GPT-Jのようなモデルから事実情報を真に消し去るのに苦労している。
論文 参考訳(メタデータ) (2023-09-29T17:12:43Z) - Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy [17.535417441295074]
機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
本稿では,現在の最先端技術とアプローチを網羅したMUの包括的調査を行う。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、リソース制約など、対処すべき課題を強調している。
論文 参考訳(メタデータ) (2023-05-10T12:02:18Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。