論文の概要: PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning
- arxiv url: http://arxiv.org/abs/2010.02529v1
- Date: Tue, 6 Oct 2020 07:04:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 06:21:19.618333
- Title: PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning
- Title(参考訳): pcal: 敵対的学習に基づくプライバシー保護型知的信用リスクモデリングフレームワーク
- Authors: Yuli Zheng, Zhenyu Wu, Ye Yuan, Tianlong Chen, Zhangyang Wang
- Abstract要約: 本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
- 参考スコア(独自算出の注目度): 111.19576084222345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Credit risk modeling has permeated our everyday life. Most banks and
financial companies use this technique to model their clients' trustworthiness.
While machine learning is increasingly used in this field, the resulting
large-scale collection of user private information has reinvigorated the
privacy debate, considering dozens of data breach incidents every year caused
by unauthorized hackers, and (potentially even more) information misuse/abuse
by authorized parties. To address those critical concerns, this paper proposes
a framework of Privacy-preserving Credit risk modeling based on Adversarial
Learning (PCAL). PCAL aims to mask the private information inside the original
dataset, while maintaining the important utility information for the target
prediction task performance, by (iteratively) weighing between a privacy-risk
loss and a utility-oriented loss. PCAL is compared against off-the-shelf
options in terms of both utility and privacy protection. Results indicate that
PCAL can learn an effective, privacy-free representation from user data,
providing a solid foundation towards privacy-preserving machine learning for
credit risk analysis.
- Abstract(参考訳): 信用リスクモデリングは私たちの日常生活に浸透した。
ほとんどの銀行や金融機関はこの手法を使って顧客の信頼性をモデル化している。
この分野では機械学習がますます使われているが、結果として生じる大規模な個人情報収集はプライバシー論争を復活させ、不正なハッカーによる毎年数十件のデータ漏洩事件や、認可された関係者による(さらに多くの)情報の誤用や誤用を考慮している。
そこで本研究では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、プライバシリスクの損失とユーティリティ指向の損失との重み付けにより、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
PCALは、ユーティリティとプライバシ保護の両方の観点から、既成のオプションと比較される。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
関連論文リスト
- Assessing the Impact of Image Dataset Features on Privacy-Preserving Machine Learning [1.3604778572442302]
本研究では,私的および非私的畳み込みニューラルネットワーク(CNN)モデルの有用性と脆弱性に影響を与える画像データセットの特徴を明らかにする。
不均衡なデータセットはマイノリティクラスでは脆弱性を増大させるが、DPはこの問題を緩和する。
論文 参考訳(メタデータ) (2024-09-02T15:30:27Z) - State-of-the-Art Approaches to Enhancing Privacy Preservation of Machine Learning Datasets: A Survey [0.0]
本稿では、機械学習(ML)の進化する展望と、その様々な分野における大きな影響について考察する。
プライバシ保護機械学習(PPML)の新たな分野に焦点を当てている。
MLアプリケーションは、通信、金融技術、監視といった産業にとってますます不可欠なものになりつつあるため、プライバシー上の懸念が高まる。
論文 参考訳(メタデータ) (2024-02-25T17:31:06Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Differential Privacy for Credit Risk Model [0.0]
私たちは、プライバシー問題に対処するための解決策として、差分プライバシーを評価します。
本稿では、信用リスクモデリング分野に適用したLeapYearのそのようなツールについて評価する。
論文 参考訳(メタデータ) (2021-06-24T09:58:49Z) - ML Privacy Meter: Aiding Regulatory Compliance by Quantifying the
Privacy Risks of Machine Learning [10.190911271176201]
機械学習モデルは、モデル予測とパラメータを通じて間接的にデータについて明らかにすることで、データにさらなるプライバシーリスクをもたらす。
モデルからのデータに対して、プライバシのリスクを定量化するツールがすぐに必要になります。
ML Privacy Meterは、アートメンバーシップ推論攻撃手法の状態を通じ、モデルからのデータに対するプライバシリスクを定量化するツールである。
論文 参考訳(メタデータ) (2020-07-18T06:21:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。