論文の概要: Differential Privacy for Credit Risk Model
- arxiv url: http://arxiv.org/abs/2106.15343v1
- Date: Thu, 24 Jun 2021 09:58:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 20:07:41.949835
- Title: Differential Privacy for Credit Risk Model
- Title(参考訳): 信用リスクモデルにおけるディファレンシャルプライバシ
- Authors: Tabish Maniar, Alekhya Akkinepally, Anantha Sharma
- Abstract要約: 私たちは、プライバシー問題に対処するための解決策として、差分プライバシーを評価します。
本稿では、信用リスクモデリング分野に適用したLeapYearのそのようなツールについて評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of machine learning algorithms to model user behavior and drive
business decisions has become increasingly commonplace, specifically providing
intelligent recommendations to automated decision making. This has led to an
increase in the use of customers personal data to analyze customer behavior and
predict their interests in a companys products. Increased use of this customer
personal data can lead to better models but also to the potential of customer
data being leaked, reverse engineered, and mishandled. In this paper, we assess
differential privacy as a solution to address these privacy problems by
building privacy protections into the data engineering and model training
stages of predictive model development. Our interest is a pragmatic
implementation in an operational environment, which necessitates a general
purpose differentially private modeling framework, and we evaluate one such
tool from LeapYear as applied to the Credit Risk modeling domain. Credit Risk
Model is a major modeling methodology in banking and finance where user data is
analyzed to determine the total Expected Loss to the bank. We examine the
application of differential privacy on the credit risk model and evaluate the
performance of a Differentially Private Model with a Non Differentially Private
Model. Credit Risk Model is a major modeling methodology in banking and finance
where users data is analyzed to determine the total Expected Loss to the bank.
In this paper, we explore the application of differential privacy on the credit
risk model and evaluate the performance of a Non Differentially Private Model
with Differentially Private Model.
- Abstract(参考訳): 機械学習アルゴリズムを使ってユーザの振る舞いをモデル化し、ビジネス上の意思決定を促進することは、ますます一般的になっています。
これにより、顧客の行動を分析し、企業の製品に対する関心を予測するために顧客個人データの利用が増加した。
この顧客個人データの利用の増加は、よりよいモデルにつながるだけでなく、顧客データがリークされ、リバースエンジニアリングされ、誤って処理される可能性にもつながります。
本稿では,予測モデル開発におけるデータ工学とモデルトレーニング段階にプライバシ保護を組み込むことにより,これらのプライバシ問題に対処するソリューションとして,差分プライバシを評価する。
当社の関心は,汎用的にプライベートなモデリングフレームワークを必要とする運用環境における実用的実装であり,信用リスクモデリング領域に適用したleapyearからのツールの評価を行う。
信用リスクモデル(Credit Risk Model)は、銀行および金融における主要なモデリング手法であり、ユーザデータを分析して、銀行に対する期待損失総数を決定する。
信用リスクモデルにおける差分プライバシの適用について検討し,非差分プライベートモデルを用いた差分プライベートモデルの性能評価を行った。
信用リスクモデル(Credit Risk Model)は、銀行および金融における主要なモデリング手法であり、ユーザーのデータを分析して、銀行への期待損失の総量を決定する。
本稿では,信用リスクモデルに対する差分プライバシーの適用について検討し,差分プライベートモデルを用いた非差分プライベートモデルの性能評価を行う。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - The Effects of Data Imbalance Under a Federated Learning Approach for
Credit Risk Forecasting [0.0]
信用リスク予測は、商業銀行や他の金融機関が顧客に融資を許可する上で重要な役割を担っている。
従来の機械学習手法では、グローバルモデルを構築するには、機密性の高いクライアント情報を外部サーバと共有する必要がある。
フェデレートラーニング(FL)として知られる、新たに開発されたプライバシ保護分散機械学習技術により、プライベートローカルデータに直接アクセスする必要なく、グローバルモデルのトレーニングが可能になる。
論文 参考訳(メタデータ) (2024-01-14T09:15:10Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Machine Learning Models Evaluation and Feature Importance Analysis on
NPL Dataset [0.0]
エチオピアのプライベートバンクが提供するデータセット上で、異なる機械学習モデルがどのように機能するかを評価する。
XGBoostは、KMeans SMOTEオーバーサンプリングデータ上で最高F1スコアを達成する。
論文 参考訳(メタデータ) (2022-08-28T17:09:44Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - The Influence of Dropout on Membership Inference in Differentially
Private Models [0.0]
異なるプライベートモデルは、モデルがトレーニングしたデータのプライバシ保護を目指している。
我々は、差分プライバシーのないモデルに対する会員推測攻撃を行う。
論文 参考訳(メタデータ) (2021-03-16T12:09:51Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Information Laundering for Model Privacy [34.66708766179596]
本稿では,モデルプライバシ向上のための新しいフレームワークであるインフォメーション・ロンダリングを提案する。
生のデータ情報の保護に関するデータプライバシとは異なり、モデルプライバシは、公開用にデプロイされる既に学習済みのモデルを保護することを目的としている。
論文 参考訳(メタデータ) (2020-09-13T23:24:08Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。