論文の概要: Distributed LSTM-Learning from Differentially Private Label Proportions
- arxiv url: http://arxiv.org/abs/2301.07101v1
- Date: Sun, 15 Jan 2023 22:11:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 17:38:16.908651
- Title: Distributed LSTM-Learning from Differentially Private Label Proportions
- Title(参考訳): 個人差によるLSTM学習
- Authors: Timon Sachweh, Daniel Boiar, Thomas Liebig
- Abstract要約: 微分プライバシーと分散LSTM学習を併用した2つの効率的なモデルを提案する。
この評価は、パフォーマンスとデータプライバシのトレードオフを示すものだ。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data privacy and decentralised data collection has become more and more
popular in recent years. In order to solve issues with privacy, communication
bandwidth and learning from spatio-temporal data, we will propose two efficient
models which use Differential Privacy and decentralized LSTM-Learning: One, in
which a Long Short Term Memory (LSTM) model is learned for extracting local
temporal node constraints and feeding them into a Dense-Layer
(LabelProportionToLocal). The other approach extends the first one by fetching
histogram data from the neighbors and joining the information with the LSTM
output (LabelProportionToDense). For evaluation two popular datasets are used:
Pems-Bay and METR-LA. Additionally, we provide an own dataset, which is based
on LuST. The evaluation will show the tradeoff between performance and data
privacy.
- Abstract(参考訳): 近年,データプライバシと分散データ収集がますます普及している。
プライバシ、通信帯域幅、時空間データからの学習の問題を解決するために、差分プライバシーと分散LSTM学習を利用する2つの効率的なモデルを提案する:1つは、局所時間ノード制約を抽出し、それらをDense-Layer(LabelProportionToLocal)に供給するために長短記憶(LSTM)モデルを学ぶ。
別のアプローチは、隣人からヒストグラムデータを取得し、LSTM出力(LabelProportionToDense)で情報を結合することで、最初のアプローチを拡張する。
評価には、pems-bay と metr-la の2つの人気のあるデータセットを使用する。
さらに、LuSTをベースとした独自のデータセットも提供しています。
評価は、パフォーマンスとデータのプライバシのトレードオフを示す。
関連論文リスト
- Benchmarking FedAvg and FedCurv for Image Classification Tasks [1.376408511310322]
本稿では,同じフェデレーションネットワークにおけるデータの統計的不均一性の問題に焦点をあてる。
FedAvg、FedProx、Federated Curvature(FedCurv)など、いくつかのフェデレートラーニングアルゴリズムがすでに提案されている。
この研究の副産物として、FLコミュニティからのさらなる比較を容易にするために使用したデータセットの非IIDバージョンをリリースします。
論文 参考訳(メタデータ) (2023-03-31T10:13:01Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - Data Selection for Language Models via Importance Resampling [90.9263039747723]
我々は、望まれるターゲット分布に合わせるために、大規模な未ラベルデータセットのサブセットを選択するという問題を形式化する。
我々は、LMデータ選択のために低次元で使用される古典的な重要度再サンプリング手法を拡張した。
DSIRフレームワークをhash n-gram機能でインスタンス化し、4.5時間で1億のドキュメントを選択できる。
論文 参考訳(メタデータ) (2023-02-06T23:57:56Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - LSTMSPLIT: Effective SPLIT Learning based LSTM on Sequential Time-Series
Data [3.9011223632827385]
本稿では,LSTMネットワークを用いたSLアーキテクチャを用いて,時系列データを複数のクライアントで分類するLSTMSPLITを提案する。
提案手法であるLSTMSPLITは, 心電図データセットとヒト活動認識データセットを用いたSplit-1DCNN法と比較して, 精度が向上した。
論文 参考訳(メタデータ) (2022-03-08T11:44:12Z) - Pseudo-Labeled Auto-Curriculum Learning for Semi-Supervised Keypoint
Localization [88.74813798138466]
オブジェクトのキーポイントのローカライズは、基本的な視覚的問題である。
キーポイントローカライゼーションネットワークの教師付き学習は、しばしば大量のデータを必要とする。
本稿では,一連の動的しきい値を持つ信頼度の高い擬似ラベルサンプルを自動的に選択する。
論文 参考訳(メタデータ) (2022-01-21T09:51:58Z) - Big Data Analytics for Network Level Short-Term Travel Time Prediction
with Hierarchical LSTM [0.0]
本稿では,Caltrans Performance Measurement System (PeMS) による大規模走行時間データセットを利用する。
大量のデータの課題を克服するために、ビッグデータ分析エンジンのApache SparkとApache MXNetがデータラングリングとモデリングに使用される。
階層型LSTMモデルは、ネットワークレベルの移動時間の空間的時間的相関を捉えるために、異なる時間スケールでの依存関係を考慮できる。
論文 参考訳(メタデータ) (2022-01-15T05:25:03Z) - Learning a Self-Expressive Network for Subspace Clustering [15.096251922264281]
本稿では,データ表現の自己表現を学習するために,適切に設計されたニューラルネットワークを用いた,自己表現型ネットワーク(SENet)と呼ばれる,サブスペースクラスタリングのための新しいフレームワークを提案する。
私たちのSENetは、トレーニングデータに望ましい特性を持つ自己表現係数を学習するだけでなく、サンプル外のデータも処理します。
特に、SENetはMNIST、Fashion MNIST、Extended MNISTで高い競争力を発揮し、CIFAR-10で最先端のパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-10-08T18:06:06Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - Privacy-Aware Time-Series Data Sharing with Deep Reinforcement Learning [33.42328078385098]
時系列データ共有におけるプライバシーユーティリティトレードオフ(PUT)について検討する。
現時点でのプライバシを保存する方法は、トレースレベルでかなりの量の情報をリークする可能性がある。
我々は、ユーザの真のデータシーケンスの歪んだバージョンを、信頼できない第三者と共有することを検討する。
論文 参考訳(メタデータ) (2020-03-04T18:47:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。