論文の概要: Right to be Forgotten in the Era of Large Language Models: Implications, Challenges, and Solutions
- arxiv url: http://arxiv.org/abs/2307.03941v4
- Date: Wed, 5 Jun 2024 01:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 04:26:20.269870
- Title: Right to be Forgotten in the Era of Large Language Models: Implications, Challenges, and Solutions
- Title(参考訳): 大規模言語モデルの時代に忘れられる権利:含意、課題、解決策
- Authors: Dawen Zhang, Pamela Finckenberg-Broman, Thong Hoang, Shidong Pan, Zhenchang Xing, Mark Staples, Xiwei Xu,
- Abstract要約: Forgotten(RTBF)となる権利は、技術の進化の結果として最初に確立された。
近年のLarge Language Models (LLMs) は RTBF への準拠に新たな課題を提起している。
我々は、差分プライバシー、機械学習、モデル編集、ガードレールの使用など、RTBFの技術的ソリューションの実装方法を示す。
- 参考スコア(独自算出の注目度): 15.726163080180653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Right to be Forgotten (RTBF) was first established as the result of the ruling of Google Spain SL, Google Inc. v AEPD, Mario Costeja Gonz\'alez, and was later included as the Right to Erasure under the General Data Protection Regulation (GDPR) of European Union to allow individuals the right to request personal data be deleted by organizations. Specifically for search engines, individuals can send requests to organizations to exclude their information from the query results. It was a significant emergent right as the result of the evolution of technology. With the recent development of Large Language Models (LLMs) and their use in chatbots, LLM-enabled software systems have become popular. But they are not excluded from the RTBF. Compared with the indexing approach used by search engines, LLMs store, and process information in a completely different way. This poses new challenges for compliance with the RTBF. In this paper, we explore these challenges and provide our insights on how to implement technical solutions for the RTBF, including the use of differential privacy, machine unlearning, model editing, and guardrails. With the rapid advancement of AI and the increasing need of regulating this powerful technology, learning from the case of RTBF can provide valuable lessons for technical practitioners, legal experts, organizations, and authorities.
- Abstract(参考訳): Google Spain SL、Google Inc. v AEPD、Mario Costeja Gonz\'alezの裁定により最初に制定されたRTBFは、後に欧州連合の一般データ保護規則(GDPR)の下で、個人が個人データを削除する権利を廃止する権利として含まれた。
具体的には、検索結果から情報を除外するために、個人が組織にリクエストを送ることができる。
それは技術の進化の結果、重要な創発的な権利であった。
近年,Large Language Models (LLM) が開発され,チャットボットでの利用により,LLM対応ソフトウェアシステムが普及している。
しかし、RTBFから除外されることはない。
検索エンジンが使用するインデックス化手法と比較して、LLMは情報を全く異なる方法で保存し、処理する。
これにより、RTBFに準拠する上で新たな課題が生じる。
本稿では、これらの課題を探求し、差分プライバシー、機械学習、モデル編集、ガードレールの使用など、RTBFの技術的ソリューションの実装方法に関する洞察を提供する。
AIの急速な進歩と、この強力な技術を規制する必要性の高まりにより、RTBFのケースから学んだことは、技術実践者、法律専門家、組織、当局に貴重な教訓を提供することができる。
関連論文リスト
- Free to play: UN Trade and Development's experience with developing its own open-source Retrieval Augmented Generation Large Language Model application [0.0]
UNCTADは、独自のオープンソースのRetrieval Augmented Generation (RAG) LLMアプリケーションを探索、開発している。
RAGは、大規模言語モデルを組織のドメインや作業に意識し、より有用なものにします。
アプリを生成するために開発された3つのライブラリ、ドキュメント処理と統計解析用のnlp_pipeline、ローカルなRAG LLMを実行する local_rag_llm、ユーザインターフェース用の streamlit_rag は、DockerfilesでPyPIとGitHubで公開されている。
論文 参考訳(メタデータ) (2024-06-18T14:23:54Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Second-Order Information Matters: Revisiting Machine Unlearning for Large Language Models [1.443696537295348]
プライバシーの漏洩と著作権侵害はまだ未発見だ。
我々の未学習のアルゴリズムは、データに依存しない/モデルに依存しないだけでなく、ユーティリティの保存やプライバシー保証の観点からも堅牢であることが証明されている。
論文 参考訳(メタデータ) (2024-03-13T18:57:30Z) - The Good and The Bad: Exploring Privacy Issues in Retrieval-Augmented
Generation (RAG) [56.67603627046346]
Retrieval-augmented Generation (RAG)は、プロプライエタリおよびプライベートデータによる言語モデルを容易にする強力な技術である。
本研究では,プライベート検索データベースの漏洩に対するRAGシステムの脆弱性を実証する,新たな攻撃手法による実証的研究を行う。
論文 参考訳(メタデータ) (2024-02-23T18:35:15Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Federated Fine-Tuning of LLMs on the Very Edge: The Good, the Bad, the Ugly [62.473245910234304]
本稿では,最新のエッジコンピューティングシステムにおいて,Large Language Modelsをどのように導入できるかを,ハードウェア中心のアプローチで検討する。
マイクロレベルのハードウェアベンチマークを行い、FLOPモデルと最先端のデータセンターGPUを比較し、現実的な条件下でのネットワーク利用について検討する。
論文 参考訳(メタデータ) (2023-10-04T20:27:20Z) - Audit to Forget: A Unified Method to Revoke Patients' Private Data in
Intelligent Healthcare [14.22413100609926]
我々は,事前学習した深層学習モデルから患者の個人データを評価・取り消しできるAFSを開発した。
異なるデータセット上の4つのタスクに適用することで、AFSの汎用性を実証した。
論文 参考訳(メタデータ) (2023-02-20T07:29:22Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Mitigating Sovereign Data Exchange Challenges: A Mapping to Apply
Privacy- and Authenticity-Enhancing Technologies [67.34625604583208]
AET(Authenticity Enhancing Technologies)とPET(Privacy-Enhancing Technologies)は、SDE(Sovereign Data Exchange)に関与していると考えられている。
PETとAETは技術的に複雑であり、採用を妨げる。
本研究は,挑戦指向技術マッピングを実証的に構築する。
論文 参考訳(メタデータ) (2022-06-20T08:16:42Z) - Datensouver\"anit\"at f\"ur Verbraucher:innen: Technische Ans\"atze
durch KI-basierte Transparenz und Auskunft im Kontext der DSGVO [0.0]
EUの一般データ保護規則は、包括的なデータ対象の権利を保証する。
長いデータ保護宣言などの従来のアプローチは、情報自己決定の要件を満たしていない。
この目的のために、関連する透明性情報はセミオートマチックな方法で抽出され、マシン可読形式で表現され、仮想アシスタントなどの多様なチャネルを介して再生される。
論文 参考訳(メタデータ) (2021-12-07T18:18:19Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。