論文の概要: Fast Private Parameter Learning and Evaluation for Sum-Product Networks
- arxiv url: http://arxiv.org/abs/2104.07353v1
- Date: Thu, 15 Apr 2021 10:21:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 00:30:21.813541
- Title: Fast Private Parameter Learning and Evaluation for Sum-Product Networks
- Title(参考訳): Sum-Product Networkの高速プライベートパラメータ学習と評価
- Authors: Ernst Althaus, Mohammad Sadeq Dousti and Stefan Kramer
- Abstract要約: アーキテクチャが固定され、データが複数のパーティ間で水平に分割されていると仮定して、合計ノードの重みを学ぶ方法を示します。
計算は各参加者のプライバシーを維持します。
また,学習したSPNを用いて,簡便かつプライベートな評価を行うことができることを示す。
- 参考スコア(独自算出の注目度): 4.189643331553922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A sum-product network (SPN) is a graphical model that allows several types of
inferences to be drawn efficiently. There are two types of learning for SPNs:
Learning the architecture of the model, and learning the parameters. In this
paper, we tackle the second problem: We show how to learn the weights for the
sum nodes, assuming the architecture is fixed, and the data is horizontally
partitioned between multiple parties. The computations will preserve the
privacy of each participant. Furthermore, we will use secret sharing instead of
(homomorphic) encryption, which allows fast computations and requires little
computational resources. To this end, we use a novel integer division to
compute approximate real divisions. We also show how simple and private
evaluations can be performed using the learned SPN.
- Abstract(参考訳): 和積ネットワーク(SPN)は、複数の種類の推論を効率的に描画できるグラフィカルモデルである。
SPNの学習には、モデルのアーキテクチャを学習し、パラメータを学習する2つのタイプがある。
本稿では、アーキテクチャが固定されていると仮定して、和ノードの重み付けを学習し、データを複数のパーティ間で水平に分割する方法を示す。
計算は各参加者のプライバシーを保護します。
さらに、高速計算を可能にし、計算資源をほとんど必要としない(homomorphic)暗号化の代わりにシークレット共有を利用する。
この目的のために、近似実除算を計算するために新しい整数除算を用いる。
また,学習したSPNを用いて,簡便かつプライベートな評価を行うことができることを示す。
関連論文リスト
- Soft Learning Probabilistic Circuits [2.6436521007616114]
本稿では,PCを学習するための主要なアルゴリズムであるLearnSPNについて述べる。
本研究では,LearnSPNが軽度仮定下での強欲的可能性の最大化であることを示す。
我々はソフトクラスタリングプロセスを用いてPCを誘導するSoftLearnという新しい学習手順を提案する。
論文 参考訳(メタデータ) (2024-03-21T15:56:15Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Neural ShDF: Reviving an Efficient and Consistent Mesh Segmentation
Method [0.0]
本稿では,メッシュセグメンテーションに先立って,ディープラーニングを利用してマッピング関数を符号化する手法を提案する。
我々のアプローチは、入力メッシュをダウンサンプルし、フル解像度構造をクエリするので、解像度に依存しない。
論文 参考訳(メタデータ) (2023-06-14T18:27:39Z) - VertiBayes: Learning Bayesian network parameters from vertically partitioned data with missing values [2.9707233220536313]
フェデレーション学習は、分散データに基づいて機械学習モデルをトレーニングすることを可能にする。
本稿では,垂直分割データ上でベイズネットワークを学習するためのVertiBayesという新しい手法を提案する。
提案手法は,従来のアルゴリズムを用いて学習したモデルに匹敵するモデルを生成する。
論文 参考訳(メタデータ) (2022-10-31T11:13:35Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Learning Best Combination for Efficient N:M Sparsity [75.34103761423803]
N:M学習は自然に有限コレクション内で最高の組み合わせを求める問題として特徴づけられる。
学習の最良の組み合わせ (LBC) は, 様々なネットワークにおいて, 市販のN:Mスポーサリティ手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-06-14T07:51:31Z) - CECILIA: Comprehensive Secure Machine Learning Framework [2.949446809950691]
複雑な操作をプライベートに行えるPPビルディングブロックを提供するセキュアな3パーティフレームワークであるCECILIAを提案する。
CECILIAには2つの新しい方法があり、これは秘密のグラム行列の逆二乗根と秘密の値のパワーに引き上げられた公的な基底の正確な指数関数である。
このフレームワークは、他のMLアルゴリズムと、さらなる計算をプライベートに計算可能にすることを約束している。
論文 参考訳(メタデータ) (2022-02-07T09:27:34Z) - Exploring the Common Principal Subspace of Deep Features in Neural
Networks [50.37178960258464]
我々は、同じデータセットでトレーニングされた異なるディープニューラルネットワーク(DNN)が、潜在空間において共通の主部分空間を共有することを発見した。
具体的には、DNNで学んだ深い機能の主部分空間を表すために、$mathcalP$-vectorを新たに設計する。
異なるアルゴリズム/アーキテクチャで訓練された2つのDNNの比較では、小さな角度(コサインが1.0ドルに近い)が見つかっている。
論文 参考訳(メタデータ) (2021-10-06T15:48:32Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Training Deep Neural Networks with Constrained Learning Parameters [4.917317902787792]
ディープラーニングタスクのかなりの部分はエッジコンピューティングシステムで実行される。
我々は, Combinatorial Neural Network Training Algorithm (CNNTrA)を提案する。
CoNNTrAは、MNIST、Iris、ImageNetデータセット上で、第三次学習パラメータでディープラーニングモデルをトレーニングする。
以上の結果から,CNNTrAモデルはメモリを32倍に削減し,バックプロパゲーションモデルと同程度の誤差を有することがわかった。
論文 参考訳(メタデータ) (2020-09-01T16:20:11Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。