論文の概要: Private Machine Learning via Randomised Response
- arxiv url: http://arxiv.org/abs/2001.04942v2
- Date: Mon, 24 Feb 2020 19:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 12:06:47.690710
- Title: Private Machine Learning via Randomised Response
- Title(参考訳): ランダム応答によるプライベート機械学習
- Authors: David Barber
- Abstract要約: ランダムな応答に基づくプライベート機械学習のための一般学習フレームワークを提案する。
私たちの仮定では、すべてのアクターは潜在的に敵対的であり、個々のデータポイントのノイズの多いバージョンをリリースするだけで信頼できます。
- 参考スコア(独自算出の注目度): 18.770059489501367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a general learning framework for private machine learning based
on randomised response. Our assumption is that all actors are potentially
adversarial and as such we trust only to release a single noisy version of an
individual's datapoint. We discuss a general approach that forms a consistent
way to estimate the true underlying machine learning model and demonstrate this
in the case of logistic regression.
- Abstract(参考訳): ランダムな応答に基づくプライベート機械学習のための一般学習フレームワークを提案する。
当社の仮定では、すべてのアクターは潜在的に敵対的であり、個々のデータポイントの単一のノイズバージョンのリリースのみを信頼しています。
我々は、真の基礎となる機械学習モデルを推定する一貫した方法を形成する一般的なアプローチについて議論し、ロジスティック回帰の場合、これを実証する。
関連論文リスト
- Network Inversion for Training-Like Data Reconstruction [3.004632712148892]
本稿では,学習モデルからトレーニングライクなデータを再構成するネットワーク・インバージョン・ベース・アプローチであるトレーニングライクなデータ再構成(TLDR)を提案する。
提案手法を検証するため,複数の標準視覚分類データセットを用いて経験的評価を行った。
論文 参考訳(メタデータ) (2024-10-22T10:42:08Z) - Valid Inference for Machine Learning Model Parameters [0.0]
機械学習モデルの最適パラメータに対して有効な信頼セットを構築する。
この信頼度セットはブートストラップ技術を用いてよく近似できることを示す。
論文 参考訳(メタデータ) (2023-02-21T17:46:08Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Robust Transferable Feature Extractors: Learning to Defend Pre-Trained
Networks Against White Box Adversaries [69.53730499849023]
また, 予測誤差を誘導するために, 逆例を独立に学習した別のモデルに移すことが可能であることを示す。
本稿では,頑健な伝達可能な特徴抽出器(RTFE)と呼ばれる,ディープラーニングに基づく事前処理機構を提案する。
論文 参考訳(メタデータ) (2022-09-14T21:09:34Z) - Concept-modulated model-based offline reinforcement learning for rapid
generalization [5.512991103610139]
本研究では,環境概念や非教師付き手法で学習したダイナミックスに制約されたシナリオを自己生成する手法を提案する。
特に、エージェントの環境の内部モデルは、エージェントの動作に敏感な入力空間の低次元概念表現に条件付けされる。
モデルベースおよびモデルフリーアプローチと比較して,特定の障害事例の異なるインスタンスに対するワンショット一般化の劇的な改善と,同様のバリエーションに対するゼロショット一般化を示す。
論文 参考訳(メタデータ) (2022-09-07T15:06:38Z) - Evaluating Machine Unlearning via Epistemic Uncertainty [78.27542864367821]
本研究では,不確実性に基づく機械学習アルゴリズムの評価を行う。
これは私たちの最良の知識の一般的な評価の最初の定義です。
論文 参考訳(メタデータ) (2022-08-23T09:37:31Z) - Robustness of Machine Learning Models Beyond Adversarial Attacks [0.0]
本稿では,MLモデルのロバスト性を決定する上で,敵対的ロバスト性や近縁なメトリクスが必ずしも有効な指標ではないことを示す。
アプリケーション毎に個別に入力データの摂動をモデル化するフレキシブルなアプローチを提案する。
これは、現実の摂動が予測を変える可能性を計算する確率論的アプローチと組み合わせられる。
論文 参考訳(メタデータ) (2022-04-21T12:09:49Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。