論文の概要: Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy
- arxiv url: http://arxiv.org/abs/2305.06360v6
- Date: Thu, 1 Feb 2024 01:07:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 19:50:06.045588
- Title: Exploring the Landscape of Machine Unlearning: A Comprehensive Survey
and Taxonomy
- Title(参考訳): 機械学習の景観を探る : 総合的な調査と分類学
- Authors: Thanveer Shaik, Xiaohui Tao, Haoran Xie, Lin Li, Xiaofeng Zhu, and
Qing Li
- Abstract要約: 機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
本稿では,現在の最先端技術とアプローチを網羅したMUの包括的調査を行う。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、リソース制約など、対処すべき課題を強調している。
- 参考スコア(独自算出の注目度): 17.535417441295074
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine unlearning (MU) is gaining increasing attention due to the need to
remove or modify predictions made by machine learning (ML) models. While
training models have become more efficient and accurate, the importance of
unlearning previously learned information has become increasingly significant
in fields such as privacy, security, and fairness. This paper presents a
comprehensive survey of MU, covering current state-of-the-art techniques and
approaches, including data deletion, perturbation, and model updates. In
addition, commonly used metrics and datasets are also presented. The paper also
highlights the challenges that need to be addressed, including attack
sophistication, standardization, transferability, interpretability, training
data, and resource constraints. The contributions of this paper include
discussions about the potential benefits of MU and its future directions.
Additionally, the paper emphasizes the need for researchers and practitioners
to continue exploring and refining unlearning techniques to ensure that ML
models can adapt to changing circumstances while maintaining user trust. The
importance of unlearning is further highlighted in making Artificial
Intelligence (AI) more trustworthy and transparent, especially with the
increasing importance of AI in various domains that involve large amounts of
personal user data.
- Abstract(参考訳): 機械学習(ML)モデルによる予測の削除や修正の必要性から、機械学習(MU)が注目を集めている。
トレーニングモデルはより効率的で正確になっていますが、未学習の情報の重要性は、プライバシやセキュリティ、公正といった分野でますます重要になっています。
本稿では,データ削除,摂動,モデル更新など,現在の最先端技術とアプローチを包括的に調査する。
また、一般的なメトリクスやデータセットも提示される。
また、攻撃の高度化、標準化、転送可能性、解釈可能性、トレーニングデータ、リソース制約など、対処すべき課題を強調している。
本稿では,muの潜在的メリットとその今後の方向性について考察する。
さらに、機械学習モデルがユーザの信頼を維持しながら変化する状況に適応できるように、研究者や実践者が未学習の技術を探求し、改善し続ける必要性を強調した。
アンラーニングの重要性はさらに強調され、人工知能(AI)をより信頼性が高く透明なものにすること、特に大量の個人データを含むさまざまな領域におけるAIの重要性が増している。
関連論文リスト
- Machine Unlearning: Taxonomy, Metrics, Applications, Challenges, and
Prospects [17.502158848870426]
データユーザには、データを忘れる権利が与えられている。
機械学習(ML)の過程で、忘れられた権利は、ユーザーデータを削除するためにモデルプロバイダを必要とする。
機械学習は、業界と学界の両方からますます注目を集めている。
論文 参考訳(メタデータ) (2024-03-13T05:11:24Z) - Rethinking Machine Unlearning for Large Language Models [89.99791628154274]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Learn to Unlearn: A Survey on Machine Unlearning [29.077334665555316]
本稿では,最近の機械学習技術,検証機構,潜在的攻撃について概説する。
新たな課題と今後の研究方向性を強調します。
本稿では、プライバシ、エクイティ、レジリエンスをMLシステムに統合するための貴重なリソースの提供を目的としている。
論文 参考訳(メタデータ) (2023-05-12T14:28:02Z) - Deep Transfer Learning for Automatic Speech Recognition: Towards Better
Generalization [3.6393183544320236]
深層学習(DL)における音声認識の課題
大規模なトレーニングデータセットと高い計算とストレージリソースが必要です。
ディープトランスファーラーニング(DTL)はこれらの問題を克服するために導入された。
論文 参考訳(メタデータ) (2023-04-27T21:08:05Z) - Deep Active Learning for Computer Vision: Past and Future [50.19394935978135]
AIモデルの開発に欠かせない役割にもかかわらず、アクティブラーニングの研究は他の研究の方向性ほど集中的ではない。
データ自動化の課題に対処し、自動化された機械学習システムに対処することによって、アクティブな学習はAI技術の民主化を促進する。
論文 参考訳(メタデータ) (2022-11-27T13:07:14Z) - Learnware: Small Models Do Big [69.88234743773113]
自然言語処理やコンピュータビジョンの応用で目覚ましい成果を上げてきた、一般的なビッグモデルパラダイムは、これらの問題にまだ対応していないが、炭素排出量の深刻な源となっている。
この記事では、マシンラーニングモデルをスクラッチから構築する必要がないようにするための学習ソフトウェアパラダイムの概要を紹介します。
論文 参考訳(メタデータ) (2022-10-07T15:55:52Z) - Addressing contingency in algorithmic (mis)information classification:
Toward a responsible machine learning agenda [0.9659642285903421]
データサイエンティストは、モデルトレーニングとテストに使用される「真実の情報源の客観性、信頼性、正当性」にスタンスを取る必要がある。
彼らの報告された高い正確さと性能にもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形作り、不正な検閲や偽の信念の強化のような下流のネガティブな影響を生み出す可能性がある。
論文 参考訳(メタデータ) (2022-10-05T17:34:51Z) - A Survey of Machine Unlearning [43.272767023563254]
近年の規制では、ユーザに関する個人情報は一般にコンピュータシステムから、特に要求に応じてMLモデルから削除することが要求されている。
この現象は、機械学習モデルを特定のデータを忘れるようにするための新しいパラダイム、すなわち機械学習を求めている。
我々は、マシンアンラーニングの定義、シナリオ、メカニズム、アプリケーションについて、徹底的に調査することを目指している。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Personalized Education in the AI Era: What to Expect Next? [76.37000521334585]
パーソナライズ学習の目的は、学習者の強みに合致する効果的な知識獲得トラックをデザインし、目標を達成するために弱みをバイパスすることである。
近年、人工知能(AI)と機械学習(ML)の隆盛は、パーソナライズされた教育を強化するための新しい視点を広げています。
論文 参考訳(メタデータ) (2021-01-19T12:23:32Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。