論文の概要: Right to be Forgotten in the Era of Large Language Models: Implications, Challenges, and Solutions
- arxiv url: http://arxiv.org/abs/2307.03941v4
- Date: Wed, 5 Jun 2024 01:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 04:26:20.269870
- Title: Right to be Forgotten in the Era of Large Language Models: Implications, Challenges, and Solutions
- Title(参考訳): 大規模言語モデルの時代に忘れられる権利:含意、課題、解決策
- Authors: Dawen Zhang, Pamela Finckenberg-Broman, Thong Hoang, Shidong Pan, Zhenchang Xing, Mark Staples, Xiwei Xu,
- Abstract要約: Forgotten(RTBF)となる権利は、技術の進化の結果として最初に確立された。
近年のLarge Language Models (LLMs) は RTBF への準拠に新たな課題を提起している。
我々は、差分プライバシー、機械学習、モデル編集、ガードレールの使用など、RTBFの技術的ソリューションの実装方法を示す。
- 参考スコア(独自算出の注目度): 15.726163080180653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Right to be Forgotten (RTBF) was first established as the result of the ruling of Google Spain SL, Google Inc. v AEPD, Mario Costeja Gonz\'alez, and was later included as the Right to Erasure under the General Data Protection Regulation (GDPR) of European Union to allow individuals the right to request personal data be deleted by organizations. Specifically for search engines, individuals can send requests to organizations to exclude their information from the query results. It was a significant emergent right as the result of the evolution of technology. With the recent development of Large Language Models (LLMs) and their use in chatbots, LLM-enabled software systems have become popular. But they are not excluded from the RTBF. Compared with the indexing approach used by search engines, LLMs store, and process information in a completely different way. This poses new challenges for compliance with the RTBF. In this paper, we explore these challenges and provide our insights on how to implement technical solutions for the RTBF, including the use of differential privacy, machine unlearning, model editing, and guardrails. With the rapid advancement of AI and the increasing need of regulating this powerful technology, learning from the case of RTBF can provide valuable lessons for technical practitioners, legal experts, organizations, and authorities.
- Abstract(参考訳): Google Spain SL、Google Inc. v AEPD、Mario Costeja Gonz\'alezの裁定により最初に制定されたRTBFは、後に欧州連合の一般データ保護規則(GDPR)の下で、個人が個人データを削除する権利を廃止する権利として含まれた。
具体的には、検索結果から情報を除外するために、個人が組織にリクエストを送ることができる。
それは技術の進化の結果、重要な創発的な権利であった。
近年,Large Language Models (LLM) が開発され,チャットボットでの利用により,LLM対応ソフトウェアシステムが普及している。
しかし、RTBFから除外されることはない。
検索エンジンが使用するインデックス化手法と比較して、LLMは情報を全く異なる方法で保存し、処理する。
これにより、RTBFに準拠する上で新たな課題が生じる。
本稿では、これらの課題を探求し、差分プライバシー、機械学習、モデル編集、ガードレールの使用など、RTBFの技術的ソリューションの実装方法に関する洞察を提供する。
AIの急速な進歩と、この強力な技術を規制する必要性の高まりにより、RTBFのケースから学んだことは、技術実践者、法律専門家、組織、当局に貴重な教訓を提供することができる。
関連論文リスト
- The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Second-Order Information Matters: Revisiting Machine Unlearning for Large Language Models [1.443696537295348]
プライバシーの漏洩と著作権侵害はまだ未発見だ。
我々の未学習のアルゴリズムは、データに依存しない/モデルに依存しないだけでなく、ユーティリティの保存やプライバシー保証の観点からも堅牢であることが証明されている。
論文 参考訳(メタデータ) (2024-03-13T18:57:30Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Audit to Forget: A Unified Method to Revoke Patients' Private Data in
Intelligent Healthcare [14.22413100609926]
我々は,事前学習した深層学習モデルから患者の個人データを評価・取り消しできるAFSを開発した。
異なるデータセット上の4つのタスクに適用することで、AFSの汎用性を実証した。
論文 参考訳(メタデータ) (2023-02-20T07:29:22Z) - Mitigating Sovereign Data Exchange Challenges: A Mapping to Apply
Privacy- and Authenticity-Enhancing Technologies [67.34625604583208]
AET(Authenticity Enhancing Technologies)とPET(Privacy-Enhancing Technologies)は、SDE(Sovereign Data Exchange)に関与していると考えられている。
PETとAETは技術的に複雑であり、採用を妨げる。
本研究は,挑戦指向技術マッピングを実証的に構築する。
論文 参考訳(メタデータ) (2022-06-20T08:16:42Z) - Datensouver\"anit\"at f\"ur Verbraucher:innen: Technische Ans\"atze
durch KI-basierte Transparenz und Auskunft im Kontext der DSGVO [0.0]
EUの一般データ保護規則は、包括的なデータ対象の権利を保証する。
長いデータ保護宣言などの従来のアプローチは、情報自己決定の要件を満たしていない。
この目的のために、関連する透明性情報はセミオートマチックな方法で抽出され、マシン可読形式で表現され、仮想アシスタントなどの多様なチャネルを介して再生される。
論文 参考訳(メタデータ) (2021-12-07T18:18:19Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。