論文の概要: Privacy-Preserving Object Detection & Localization Using Distributed
Machine Learning: A Case Study of Infant Eyeblink Conditioning
- arxiv url: http://arxiv.org/abs/2010.07259v1
- Date: Wed, 14 Oct 2020 17:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 13:11:07.602810
- Title: Privacy-Preserving Object Detection & Localization Using Distributed
Machine Learning: A Case Study of Infant Eyeblink Conditioning
- Title(参考訳): 分散機械学習を用いたプライバシ保護対象検出と位置決め:乳幼児のアイブリンク条件の検討
- Authors: Stefan Zwaard, Henk-Jan Boele, Hani Alers, Christos Strydis, Casey
Lew-Williams, and Zaid Al-Ars
- Abstract要約: オブジェクト検出によく使用される2つのアルゴリズムのスケーラブルな分散学習バージョンについて検討する。
医療分野における両アルゴリズムの適用について,心理学・神経科学のパラダイムを用いて検討した。
- 参考スコア(独自算出の注目度): 1.3022864665437273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed machine learning is becoming a popular model-training method due
to privacy, computational scalability, and bandwidth capacities. In this work,
we explore scalable distributed-training versions of two algorithms commonly
used in object detection. A novel distributed training algorithm using Mean
Weight Matrix Aggregation (MWMA) is proposed for Linear Support Vector Machine
(L-SVM) object detection based in Histogram of Orientated Gradients (HOG). In
addition, a novel Weighted Bin Aggregation (WBA) algorithm is proposed for
distributed training of Ensemble of Regression Trees (ERT) landmark
localization. Both algorithms do not restrict the location of model aggregation
and allow custom architectures for model distribution. For this work, a
Pool-Based Local Training and Aggregation (PBLTA) architecture for both
algorithms is explored. The application of both algorithms in the medical field
is examined using a paradigm from the fields of psychology and neuroscience -
eyeblink conditioning with infants - where models need to be trained on facial
images while protecting participant privacy. Using distributed learning, models
can be trained without sending image data to other nodes. The custom software
has been made available for public use on GitHub:
https://github.com/SLWZwaard/DMT. Results show that the aggregation of models
for the HOG algorithm using MWMA not only preserves the accuracy of the model
but also allows for distributed learning with an accuracy increase of 0.9%
compared with traditional learning. Furthermore, WBA allows for ERT model
aggregation with an accuracy increase of 8% when compared to single-node
models.
- Abstract(参考訳): 分散機械学習は、プライバシ、計算スケーラビリティ、帯域幅の容量のため、一般的なモデルトレーニング手法になりつつある。
本研究では,オブジェクト検出によく使用される2つのアルゴリズムのスケーラブルな分散学習バージョンについて検討する。
向き付き勾配(hog)のヒストグラムに基づく線形支持ベクトル機械(l-svm)物体検出に対して,平均重み行列集約(mwma)を用いた新しい分散学習アルゴリズムを提案する。
さらに,ERT(Ensemble of Regression Trees)ランドマークローカライゼーションの分散トレーニングのために,新しいWeighted Bin Aggregation (WBA)アルゴリズムを提案する。
どちらのアルゴリズムもモデルアグリゲーションの位置を制限せず、モデル分散のためのカスタムアーキテクチャを可能にする。
本研究では,両アルゴリズムのプールベースのローカルトレーニング・アグリゲーション(pblta)アーキテクチャについて検討した。
医療分野における両方のアルゴリズムの応用について、幼児の心理と神経科学のアイブリンク条件づけのパラダイムを用いて検討した。
分散学習を使用すると、他のノードに画像データを送信せずにモデルをトレーニングすることができる。
カスタムソフトウェアはGitHubで公開されている。 https://github.com/SLWZwaard/DMT。
その結果,mwmaを用いたhogアルゴリズムのモデルの集約により,モデルの精度が保たれるだけでなく,従来の学習に比べて0.9%の精度で分散学習が可能となった。
さらに、wbaはシングルノードモデルと比較して精度8%の精度でertモデルの集約を可能にする。
関連論文リスト
- Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Cramer Type Distances for Learning Gaussian Mixture Models by Gradient
Descent [0.0]
今日まで、ガウス混合モデルに適合または学習できる既知のアルゴリズムはほとんどない。
一般多変量GMM学習のためのスライスクラマー2距離関数を提案する。
これらの機能は、分散強化学習とディープQネットワークに特に有用である。
論文 参考訳(メタデータ) (2023-07-13T13:43:02Z) - Just One Byte (per gradient): A Note on Low-Bandwidth Decentralized
Language Model Finetuning Using Shared Randomness [86.61582747039053]
分散環境での言語モデルトレーニングは、交換の通信コストによって制限される。
分散微調整を低帯域幅で行うために,共有ランダムネスを用いた最近の作業を拡張した。
論文 参考訳(メタデータ) (2023-06-16T17:59:51Z) - Structured Cooperative Learning with Graphical Model Priors [98.53322192624594]
ローカルデータに制限のある分散デバイス上で、さまざまなタスクに対してパーソナライズされたモデルをトレーニングする方法を研究する。
本稿では,デバイス間の協調グラフをグラフィカルモデルにより生成する「構造化協調学習(SCooL)」を提案する。
SCooLを評価し,既存の分散学習手法と比較した。
論文 参考訳(メタデータ) (2023-06-16T02:41:31Z) - VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values [2.9707233220536313]
フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:13:35Z) - Adapting the Mean Teacher for keypoint-based lung registration under
geometric domain shifts [75.51482952586773]
ディープニューラルネットワークは一般的に、ラベル付きトレーニングデータが多く必要であり、トレーニングデータとテストデータの間のドメインシフトに弱い。
本稿では,ラベル付きソースからラベル付きターゲットドメインへのモデルの適用により,画像登録のための幾何学的領域適応手法を提案する。
本手法は,ベースラインモデルの精度を目標データに適合させながら,ベースラインモデルの50%/47%を継続的に改善する。
論文 参考訳(メタデータ) (2022-07-01T12:16:42Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Customized Video QoE Estimation with Algorithm-Agnostic Transfer
Learning [1.452875650827562]
小さなデータセット、ソースドメインのユーザプロファイルの多様性の欠如、QoEモデルのターゲットドメインの多様性の多さは、QoEモデルの課題である。
平均オピニオンスコア(MOS)上の汎用指標を分散化されたローカルモデルで共有する、トランスファーラーニングに基づくMLモデルトレーニング手法を提案する。
提案手法は,同一のMLアルゴリズムを実行するために,協調する局所ノードを必要としないため,互いに積み重ねた特定のMLアルゴリズムに非依存であることを示す。
論文 参考訳(メタデータ) (2020-03-12T15:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。