論文の概要: Differentially Private Semi-Supervised Transfer Learning
- arxiv url: http://arxiv.org/abs/2105.04615v1
- Date: Mon, 10 May 2021 18:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 07:46:35.719295
- Title: Differentially Private Semi-Supervised Transfer Learning
- Title(参考訳): 差分的半教師伝達学習
- Authors: Mohit Kumar
- Abstract要約: 本論文では,Conditionally Deep Membership-Mapping Autoencoderとノイズ付加機構を組み合わせたトランスファー学習手法を提案する。
MNIST、USPS、Office、Caltech256のデータセットを用いて、提案手法の競争力のある性能を検証した。
- 参考スコア(独自算出の注目度): 12.955202752258279
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers the problem of differentially private semi-supervised
transfer learning. The notion of membership-mapping is developed using measure
theory basis to learn data representation via a fuzzy membership function. An
alternative conception of deep autoencoder, referred to as Conditionally Deep
Membership-Mapping Autoencoder (CDMMA) (that consists of a nested compositions
of membership-mappings), is considered. Under practice-oriented settings, an
analytical solution for the learning of CDMFA can be derived by means of
variational optimization. The paper proposes a transfer learning approach that
combines CDMMA with a tailored noise adding mechanism to achieve a given level
of privacy-loss bound with the minimum perturbation of the data. Numerous
experiments were carried out using MNIST, USPS, Office, and Caltech256 datasets
to verify the competitive robust performance of the proposed methodology.
- Abstract(参考訳): 本稿では,微分的半教師付き伝達学習の問題を考察する。
ファジィメンバシップ関数を用いてデータ表現を学習するために,測度理論に基づくメンバシップマッピングの概念を開発した。
ディープ・オートエンコーダの代替概念として、コンディション・ディープ・メンバーシップ・マッピング・オートエンコーダ(CDMMA: Conditionally Deep Membership-Mapping Autoencoder)がある。
実践指向の環境では,CDMFAの学習における解析的解法は変分最適化によって導出することができる。
本稿では、CDMMAと調整されたノイズ付加機構を組み合わせた転送学習手法を提案する。
MNIST、USPS、Office、Caltech256のデータセットを用いて、提案手法の競争力のある性能を検証した。
関連論文リスト
- Provably Efficient Information-Directed Sampling Algorithms for Multi-Agent Reinforcement Learning [50.92957910121088]
本研究は,情報指向サンプリング(IDS)の原理に基づくマルチエージェント強化学習(MARL)のための新しいアルゴリズムの設計と解析を行う。
エピソディックな2プレーヤゼロサムMGに対して、ナッシュ平衡を学習するための3つのサンプル効率アルゴリズムを提案する。
我々は、Reg-MAIDSをマルチプレイヤー汎用MGに拡張し、ナッシュ平衡または粗相関平衡をサンプル効率良く学習できることを証明する。
論文 参考訳(メタデータ) (2024-04-30T06:48:56Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Differentially Private Federated Clustering over Non-IID Data [59.611244450530315]
クラスタリングクラスタ(FedC)問題は、巨大なクライアント上に分散されたラベルなしデータサンプルを、サーバのオーケストレーションの下で有限のクライアントに正確に分割することを目的としている。
本稿では,DP-Fedと呼ばれる差分プライバシー収束手法を用いた新しいFedCアルゴリズムを提案する。
提案するDP-Fedの様々な属性は、プライバシー保護の理論的解析、特に非識別的かつ独立に分散された(非i.d.)データの場合において得られる。
論文 参考訳(メタデータ) (2023-01-03T05:38:43Z) - Skellam Mixture Mechanism: a Novel Approach to Federated Learning with Differential Privacy [27.906539122581293]
本稿では,モデルを共同で訓練する複数の参加者間でセンシティブなデータが分散されるシナリオに焦点を当てる。
ディープニューラルネットワークは、基礎となるトレーニングデータを記憶する強力な能力を持っている。
この問題の効果的な解決策は、勾配にランダムノイズを注入することで厳密なプライバシー保証を提供する差分プライバシを持つモデルを訓練することである。
論文 参考訳(メタデータ) (2022-12-08T16:13:35Z) - Task-Free Continual Learning via Online Discrepancy Distance Learning [11.540150938141034]
本稿では,来訪したサンプルとモデルトレーニングに利用可能な情報全体との差分距離に基づく一般化境界を提供する,新しい理論解析フレームワークを開発する。
この理論モデルに着想を得て,混合モデルに対する動的成分展開機構,すなわちオンライン離散距離学習(ODDL)によって実現された新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-12T20:44:09Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Continual Variational Autoencoder Learning via Online Cooperative
Memorization [11.540150938141034]
変分オートエンコーダ(VAE)は連続的な学習分類タスクでうまく使われている。
しかし、連続学習で学んだクラスやデータベースに対応する仕様で画像を生成する能力はよく理解されていない。
我々は、CLを動的最適輸送問題として定式化する新しい理論フレームワークを開発する。
次に,新しいメモリバッファリング手法,すなわちオンライン協調記憶(OCM)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T18:19:27Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - Training Keyword Spotting Models on Non-IID Data with Federated Learning [6.784774147680782]
そこで本研究では,フェデレート学習を用いて,高品質なキーワードスポッティングモデルをデバイス上でトレーニング可能であることを示す。
デバイス上のデータの適合に関するアルゴリズム上の制約を克服するため、最適化アルゴリズムの徹底的な実験研究を行う。
教師と学生のトレーニングを調査するために、サンプル(デバイス上のデータにゼロ可視性を持たせること)をラベル付けします。
論文 参考訳(メタデータ) (2020-05-21T00:53:33Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。