論文の概要: Differentially Private Learning of Hawkes Processes
- arxiv url: http://arxiv.org/abs/2207.13741v1
- Date: Wed, 27 Jul 2022 18:47:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:05:01.524418
- Title: Differentially Private Learning of Hawkes Processes
- Title(参考訳): ホークス過程の微分的プライベート学習
- Authors: Mohsen Ghassemi, Eleonora Krea\v{c}i\'c, Niccol\`o Dalmasso, Vamsi K.
Potluru, Tucker Balch, Manuela Veloso
- Abstract要約: 背景強度$mu$と励起関数$alpha e-beta t$の標準ホークスプロセスについて検討する。
プライバシのコストを定量化するために、非プライベートと微分プライベートの両方で$mu$と$alpha$の見積を行い、両方の設定でサンプルの複雑さの結果を得る。
- 参考スコア(独自算出の注目度): 11.133671026816636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hawkes processes have recently gained increasing attention from the machine
learning community for their versatility in modeling event sequence data. While
they have a rich history going back decades, some of their properties, such as
sample complexity for learning the parameters and releasing differentially
private versions, are yet to be thoroughly analyzed. In this work, we study
standard Hawkes processes with background intensity $\mu$ and excitation
function $\alpha e^{-\beta t}$. We provide both non-private and differentially
private estimators of $\mu$ and $\alpha$, and obtain sample complexity results
in both settings to quantify the cost of privacy. Our analysis exploits the
strong mixing property of Hawkes processes and classical central limit theorem
results for weakly dependent random variables. We validate our theoretical
findings on both synthetic and real datasets.
- Abstract(参考訳): hawkesプロセスは最近、イベントシーケンスデータのモデリングにおける汎用性について、機械学習コミュニティから注目を集めている。
数十年前に遡る豊富な歴史があるが、パラメータを学習し、異なるプライベートバージョンをリリースするためのサンプルの複雑さなど、その特性の一部は、まだ完全には分析されていない。
本研究では,背景強度$\mu$と励起関数$\alpha e^{-\beta t}$を有する標準ホークス過程について検討する。
プライバシのコストを定量化するために、非プライベートと差分プライベートの両方に$\mu$と$\alpha$を与え、両方の設定でサンプル複雑さの結果を得る。
本解析は,弱依存確率変数に対するホークス過程の強い混合特性と古典的中心極限定理結果を利用する。
我々は合成データと実データの両方について理論的知見を検証する。
関連論文リスト
- Nystr\"om $M$-Hilbert-Schmidt Independence Criterion [0.0]
カーネルをユビキタスにする主な特徴は、 (i) 設計された領域の数、 (ii) カーネルに関連する関数クラスのヒルベルト構造、 (iii) 情報を失うことなく確率分布を表現する能力である。
我々は、Mge 2$のケースを処理し、その一貫性を証明し、その適用性を実証する代替のNystr"omベースのHSIC推定器を提案する。
論文 参考訳(メタデータ) (2023-02-20T11:51:58Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Differentially Private Estimation of Hawkes Process [81.20710494974281]
本稿では,Hawkesプロセスの離散化表現に基づいて,イベントストリームデータに対する微分プライバシーの厳密な定義を導入する。
次に、2つの微分プライベート最適化アルゴリズムを提案する。これにより、Hawkesプロセスモデルに望ましいプライバシとユーティリティの保証を持たせることができる。
論文 参考訳(メタデータ) (2022-09-15T13:59:23Z) - Local Independence Testing for Point Processes [0.8702432681310401]
既存のテストは強力なモデル仮定を必要とする。例えば、真のデータ生成モデルは、潜在する共同設立者がいないホークスプロセスである。
本稿では,Volterraの拡張に類似した拡張を,限界強度を表すツールとして導入する。
我々の理論の主な結果は、そのような展開が真の辺化強度を任意に近似できるということである。
論文 参考訳(メタデータ) (2021-10-25T07:40:31Z) - Brain Image Synthesis with Unsupervised Multivariate Canonical
CSC$\ell_4$Net [122.8907826672382]
我々は,新しいCSC$ell_4$Netを用いて,イントレとイントラモーダルの両方にまたがる専用特徴を学習することを提案する。
論文 参考訳(メタデータ) (2021-03-22T05:19:40Z) - Differential Privacy and Byzantine Resilience in SGD: Do They Add Up? [6.614755043607777]
本研究では,差分プライバシ(DP)と$(alpha,f)$-ビザンチンレジリエンスを併用して,SGD(Gradient Descent)学習アルゴリズムの分散実装が実現可能であるかを検討する。
これらの手法の直接的な構成は、結果のSGDアルゴリズムがMLモデルのパラメータ数に依存することを保証していることを示す。
論文 参考訳(メタデータ) (2021-02-16T14:10:38Z) - DoubleEnsemble: A New Ensemble Method Based on Sample Reweighting and
Feature Selection for Financial Data Analysis [22.035287788330663]
学習軌道に基づくサンプル再重み付けとシャッフルに基づく特徴選択を利用したアンサンブルフレームワークであるDoubleEnsembleを提案する。
我々のモデルは、複雑なパターンを抽出できる幅広い基盤モデルに適用でき、金融市場の予測に過度に適合し、不安定な問題を緩和できる。
論文 参考訳(メタデータ) (2020-10-03T02:57:10Z) - On the Intrinsic Differential Privacy of Bagging [69.70602220716718]
我々は、Bagingが、同じプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも、はるかに高い精度を達成することを示す。
実験結果から,Bagingは,同一のプライバシー予算を持つ最先端の差分プライベート機械学習手法よりも格段に高い精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-08-22T14:17:55Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。