論文の概要: Privacy in Metalearning and Multitask Learning: Modeling and Separations
- arxiv url: http://arxiv.org/abs/2412.12374v1
- Date: Mon, 16 Dec 2024 22:07:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 17:09:38.464627
- Title: Privacy in Metalearning and Multitask Learning: Modeling and Separations
- Title(参考訳): メタラーニングとマルチタスク学習におけるプライバシ:モデリングと分離
- Authors: Maryam Aliakbarpour, Konstantina Bairaktari, Adam Smith, Marika Swanberg, Jonathan Ullman,
- Abstract要約: 本研究では,個人別個別学習の体系的研究を行う。
最初の主な貢献は、個人化された学習のための形式的なフレームワークの分類を作ることです。
第2の貢献は、選択の異なるパーソナライズされた学習問題の分離を証明することです。
- 参考スコア(独自算出の注目度): 3.7911774407786982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model personalization allows a set of individuals, each facing a different learning task, to train models that are more accurate for each person than those they could develop individually. The goals of personalization are captured in a variety of formal frameworks, such as multitask learning and metalearning. Combining data for model personalization poses risks for privacy because the output of an individual's model can depend on the data of other individuals. In this work we undertake a systematic study of differentially private personalized learning. Our first main contribution is to construct a taxonomy of formal frameworks for private personalized learning. This taxonomy captures different formal frameworks for learning as well as different threat models for the attacker. Our second main contribution is to prove separations between the personalized learning problems corresponding to different choices. In particular, we prove a novel separation between private multitask learning and private metalearning.
- Abstract(参考訳): モデルパーソナライゼーションにより、個々の個人が異なる学習課題に直面している場合、個々の個人が個別に発達できるモデルよりも正確であるモデルを訓練することができる。
パーソナライゼーションの目標は、マルチタスク学習やメタラーニングなど、さまざまな形式的なフレームワークで捉えられている。
モデルパーソナライズのためのデータの組み合わせは、個人のモデルの出力が他の個人のデータに依存する可能性があるため、プライバシのリスクを引き起こす。
本研究では,個人別個別学習の体系的研究を行う。
最初の主な貢献は、個人化された学習のための形式的なフレームワークの分類を作ることです。
この分類法は、学習のための異なる形式的なフレームワークと、攻撃者に対する異なる脅威モデルをキャプチャする。
第2の貢献は、選択の異なるパーソナライズされた学習問題の分離を証明することです。
特に、プライベートマルチタスク学習とプライベートメタラーニングの新たな分離を実証する。
関連論文リスト
- Capturing Individual Human Preferences with Reward Features [47.43999785878563]
個人の好みを一般報酬特徴の線形結合として捉えることができることを示す。
このような特徴を学習し、その後、報酬モデルを特定の個人に迅速に適応させる方法を示します。
提案するアーキテクチャを非適応型報酬モデルと適応型報酬モデルと比較し,大規模言語モデルを用いた実験を行った。
論文 参考訳(メタデータ) (2025-03-21T17:39:33Z) - Differentially Private Continual Learning using Pre-Trained Models [17.12787392937876]
本研究は,連続学習(CL)と差分プライバシー(DP)の交わりについて考察する。
本稿では,学習環境におけるプライバシとパフォーマンスのトレードオフを解決するために,事前学習モデルを提案する。
論文 参考訳(メタデータ) (2024-11-07T13:08:06Z) - Unsupervised Human Preference Learning [7.959043497459107]
大きな言語モデルは印象的な推論能力を示しているが、パーソナライズされたコンテンツを提供するのに苦労している。
文脈内学習やパラメータ効率のよい微調整といった既存の手法は、人間の嗜好の複雑さを捉えるには不十分である。
そこで本研究では,より大規模で事前学習されたモデルを示す自然言語規則を生成するために,小パラメータモデルを選好エージェントとして活用する手法を提案する。
論文 参考訳(メタデータ) (2024-09-30T17:51:01Z) - Identity Decoupling for Multi-Subject Personalization of Text-to-Image Models [66.05234562835136]
マルチオブジェクトパーソナライズを可能にする新しいフレームワークである MuDI を提案する。
本研究の主な目的は,セグメンテーションのための基礎モデルによって生成されたセグメンテーションの活用である。
実験結果から,MuDIは同一性ミキシングを伴わずに高品質なパーソナライズされたイメージを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-05T17:45:22Z) - Towards Unified Multi-Modal Personalization: Large Vision-Language Models for Generative Recommendation and Beyond [87.1712108247199]
我々の目標は、マルチモーダルパーソナライゼーションシステム(UniMP)のための統一パラダイムを確立することである。
我々は、幅広いパーソナライズされたニーズに対処できる汎用的でパーソナライズされた生成フレームワークを開発する。
我々の手法は、パーソナライズされたタスクのための基礎言語モデルの能力を高める。
論文 参考訳(メタデータ) (2024-03-15T20:21:31Z) - Training Data Protection with Compositional Diffusion Models [99.46239561159953]
比較拡散モデル(CDM)は、異なるデータソース上で異なる拡散モデル(またはプロンプト)を訓練する手法である。
個々のモデルは、独立した、異なるタイミングで、異なる分散とドメインでトレーニングすることができる。
各モデルには、トレーニング中に露出したデータのサブセットに関する情報のみが含まれており、いくつかの形式のトレーニングデータ保護を可能にする。
論文 参考訳(メタデータ) (2023-08-02T23:27:49Z) - Participatory Personalization in Classification [8.234011679612436]
我々は、個人が予測時にパーソナライズをオプトインできる、参加型システムと呼ばれる分類モデルのファミリーを導入する。
臨床予測タスクにおける参加システムに関する総合的な実証的研究を行い、パーソナライズとインキュベーションのための共通のアプローチでそれらをベンチマークする。
その結果、参加型システムは、個人データを報告するグループ全体のパフォーマンスとデータ利用を改善しつつ、同意を容易にし、情報提供できることを示した。
論文 参考訳(メタデータ) (2023-02-08T04:24:19Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - A Generative Framework for Personalized Learning and Estimation: Theory,
Algorithms, and Privacy [10.27527187262914]
我々は、いくつかの異なるアルゴリズムを統一し、新しいアルゴリズムを提案することができる生成フレームワークを開発した。
次に、生成フレームワークを学習に使用し、既知のパーソナライズされたFLアルゴリズムを統一し、新しいFLアルゴリズムを提案する。
また、ユーザレベルのプライバシーと構成を保証するパーソナライズされた学習手法のプライバシも開発している。
論文 参考訳(メタデータ) (2022-07-05T02:18:44Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - The Influence of Dropout on Membership Inference in Differentially
Private Models [0.0]
異なるプライベートモデルは、モデルがトレーニングしたデータのプライバシ保護を目指している。
我々は、差分プライバシーのないモデルに対する会員推測攻撃を行う。
論文 参考訳(メタデータ) (2021-03-16T12:09:51Z) - Differentially Private Language Models Benefit from Public Pre-training [1.2676356746752895]
品質とプライバシーの保護を同時に行う言語モデル学習の実現可能性について検討する。
DPの微調整により,プライベートドメインにおける言語モデルの性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-09-13T00:50:44Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。