論文の概要: Continual Learning and Private Unlearning
- arxiv url: http://arxiv.org/abs/2203.12817v1
- Date: Thu, 24 Mar 2022 02:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 00:21:15.008432
- Title: Continual Learning and Private Unlearning
- Title(参考訳): 継続的な学習とプライベートアンラーニング
- Authors: Bo Liu, Qiang Liu, Peter Stone
- Abstract要約: 本稿では、継続学習とプライベートアンラーニング(CLPU)問題を定式化する。
これはCLPU問題を解決するための第一歩として、単純だが完全にプライベートなソリューションであるCLPU-DER++を紹介している。
- 参考スコア(独自算出の注目度): 49.848423659220444
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As intelligent agents become autonomous over longer periods of time, they may
eventually become lifelong counterparts to specific people. If so, it may be
common for a user to want the agent to master a task temporarily but later on
to forget the task due to privacy concerns. However enabling an agent to
\emph{forget privately} what the user specified without degrading the rest of
the learned knowledge is a challenging problem. With the aim of addressing this
challenge, this paper formalizes this continual learning and private unlearning
(CLPU) problem. The paper further introduces a straightforward but exactly
private solution, CLPU-DER++, as the first step towards solving the CLPU
problem, along with a set of carefully designed benchmark problems to evaluate
the effectiveness of the proposed solution.
- Abstract(参考訳): 知的エージェントが長い時間をかけて自律化するにつれ、彼らは最終的に特定の人々と生涯にわたって対等になるかもしれない。
もしそうなら、ユーザーがエージェントに一時的にタスクをマスターさせたいが、後にプライバシー上の懸念からタスクを忘れるのが一般的かもしれない。
しかし、エージェントが学習した知識の残りの部分を劣化させることなく、ユーザが指定したものをプライベートに指定できるようにすることは、難しい問題である。
本論文は,この課題に対処するために,この継続学習とプライベートアンラーニング(CLPU)問題を定式化する。
さらに、CLPU問題の解決に向けた第一歩として、単純だが完全にプライベートなソリューションであるCLPU-DER++を紹介し、提案ソリューションの有効性を評価するために、慎重に設計されたベンチマーク問題のセットを紹介する。
関連論文リスト
- Improving Socratic Question Generation using Data Augmentation and
Preference Optimization [2.5382095320488665]
大規模言語モデル(LLM)は、学生のためのソクラテス的質問を自動的に生成することにより、人間の努力を強化するために使用できる。
これらの LLM をプロンプトする既存の手法は、時に無効な出力を生成する。
本研究では,既存のソクラテス質問データセットを,特定の方法で無効な質問で強化するデータ拡張手法を提案する。
次に,LLama 2 などのオープンソース LLM の最適化手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T00:08:20Z) - DP-OPT: Make Large Language Model Your Privacy-Preserving Prompt
Engineer [60.44898240755332]
大きな言語モデル(LLM)は、様々なタスクのための支配的なツールとして現れています。
しかし、データプライバシに関する懸念は、調整されたプロンプトが機密情報に依存しているため、障害となる。
本稿では,DP-OPT(Dis Differentially-Private Offsite Prompt Tuning)を提案する。
論文 参考訳(メタデータ) (2023-11-27T02:01:10Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment
Regularization [57.71118589124002]
継続的な学習は破滅的な忘れ込みという課題を克服しようと試み、そこでは新しいタスクを解くための学習が、モデルが以前に学習した情報を忘れる原因となる。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れ込みを抑える新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Improving Knowledge Extraction from LLMs for Task Learning through Agent
Analysis [4.055489363682198]
大規模言語モデル(LLM)は、タスク学習の知識源として大きな可能性を秘めている。
プロンプト工学は、LLMから知識を引き出すのに有効であることが示されているが、同時に、新しいタスクを具現化したエージェント学習のための、適切な、状況に根ざした知識を得るには不十分である。
本稿では,認知エージェントアプローチであるSTARSについて述べる。これは,迅速なエンジニアリングを拡張し,その制限を緩和し,エージェントがネイティブ言語能力,具体化,環境,ユーザ嗜好に適合する新たなタスク知識を取得できるようにする。
論文 参考訳(メタデータ) (2023-06-11T20:50:14Z) - Towards Skilled Population Curriculum for Multi-Agent Reinforcement
Learning [42.540853953923495]
我々は,カリキュラム学習をマルチエージェント協調に適応させる新しいカリキュラム学習フレームワーク,SPC(Skilled Population Curriculum)を導入する。
具体的には,集団不変のコミュニケーションと階層的スキルセットを学生に提供し,異なるタスクからさまざまなエージェントで協調と行動スキルを学習できるようにする。
また、このマルチエージェント自動カリキュラム教育問題の本質的非定常性を解析し、それに対応する後悔境界を提供する。
論文 参考訳(メタデータ) (2023-02-07T12:30:52Z) - You Only Live Once: Single-Life Reinforcement Learning [124.1738675154651]
多くの現実世界の状況では、そのタスクを繰り返し実行できるポリシーを学ぶことではなく、単一のトライアルで1回だけ新しいタスクを成功させることが目的である。
エージェントが介入なしにひとつのエピソード内でタスクを完了しなければならない問題設定を形式化する。
本稿では,分散マッチング戦略を用いたQ$-weighted adversarial Learning (QWALE)を提案する。
論文 参考訳(メタデータ) (2022-10-17T09:00:11Z) - Knowledge acquisition via interactive Distributed Cognitive skill
Modules [0.0]
問題解決における人間の認知能力は、常に教育的背景、スキル、経験等に限られる。
本研究は,分散認知スキルモジュールによる手続き的スキル獲得とストレージのための,モジュール型アプローチの初期段階の導入を目的とする。
論文 参考訳(メタデータ) (2022-10-13T01:41:11Z) - Learning with Recoverable Forgetting [77.56338597012927]
学習wIth Recoverable Forgettingは、タスクまたはサンプル固有の知識の除去とリカバリを明示的に処理する。
具体的には、LIRFは2つの革新的なスキーム、すなわち知識預金と離脱をもたらす。
いくつかのデータセットで実験を行い、提案したLIRF戦略が一般化能力を満足させる結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-07-17T16:42:31Z) - Probably Approximately Correct Constrained Learning [135.48447120228658]
我々は、ほぼ正しい学習フレームワーク(PAC)に基づく一般化理論を開発する。
PAC学習可能なクラスも制約のある学習者であるという意味では,学習者の導入は学習問題を難しくするものではないことを示す。
このソリューションの特性を分析し,制約付き学習が公平でロバストな分類における問題にどのように対処できるかを説明する。
論文 参考訳(メタデータ) (2020-06-09T19:59:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。