論文の概要: Assessment of creditworthiness models privacy-preserving training with
synthetic data
- arxiv url: http://arxiv.org/abs/2301.01212v1
- Date: Sat, 31 Dec 2022 19:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 15:33:02.994107
- Title: Assessment of creditworthiness models privacy-preserving training with
synthetic data
- Title(参考訳): 合成データを用いた信用度モデルによるプライバシー保護トレーニングの評価
- Authors: Ricardo Mu\~noz-Cancino and Cristi\'an Bravo and Sebasti\'an A. R\'ios
and Manuel Gra\~na
- Abstract要約: 実世界のデータに適用した場合に合成データを用いて訓練したモデルの性能を評価する。
合成データでトレーニングされた信用度評価モデルでは、実際のデータでトレーニングされたモデルと比較して、AUCの3%、KSの6%が減少している。
- 参考スコア(独自算出の注目度): 4.014524824655106
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Credit scoring models are the primary instrument used by financial
institutions to manage credit risk. The scarcity of research on behavioral
scoring is due to the difficult data access. Financial institutions have to
maintain the privacy and security of borrowers' information refrain them from
collaborating in research initiatives. In this work, we present a methodology
that allows us to evaluate the performance of models trained with synthetic
data when they are applied to real-world data. Our results show that synthetic
data quality is increasingly poor when the number of attributes increases.
However, creditworthiness assessment models trained with synthetic data show a
reduction of 3\% of AUC and 6\% of KS when compared with models trained with
real data. These results have a significant impact since they encourage credit
risk investigation from synthetic data, making it possible to maintain
borrowers' privacy and to address problems that until now have been hampered by
the availability of information.
- Abstract(参考訳): 信用スコアモデルは、金融機関が信用リスクを管理するために使用する主要な手段である。
行動スコアに関する研究の不足は、データアクセスが難しいためである。
金融機関は、調査イニシアチブにおいて、借り手の情報のプライバシーとセキュリティを維持する必要がある。
本研究では,実世界のデータに適用した場合に,合成データを用いて訓練したモデルの性能を評価する手法を提案する。
その結果,属性数の増加に伴い,合成データの品質は低下傾向にあることがわかった。
しかし, 合成データを用いた信用度評価モデルでは, 実データで学習したモデルと比較して, auc の 3-% と ks の 6-% を削減できた。
これらの結果は、合成データからの信用リスク調査を奨励し、借り手のプライバシーを維持し、これまで情報の入手が妨げられていた問題に対処できるようにするため、大きな影響を与える。
関連論文リスト
- Unveiling the Flaws: Exploring Imperfections in Synthetic Data and Mitigation Strategies for Large Language Models [89.88010750772413]
大規模言語モデル(LLM)の学習における高品質なデータ不足問題に対する解決法として,合成データを提案する。
我々の研究は、Q-A(Q-A)ペア、一般的な合成データに関連するこれらの特定の欠陥を掘り下げ、これらの欠陥を軽減するための未学習技術に基づく方法を提案する。
我々の研究は、より堅牢で効率的なLLMトレーニングを促進することを目的として、合成データの効果的な利用に関する重要な洞察を得た。
論文 参考訳(メタデータ) (2024-06-18T08:38:59Z) - A Multi-Faceted Evaluation Framework for Assessing Synthetic Data Generated by Large Language Models [3.672850225066168]
生成AIと大規模言語モデル(LLM)は、合成データを生成するための新たな道を開いた。
潜在的なメリットにもかかわらず、プライバシー漏洩に関する懸念が浮上している。
我々は,合成表データの忠実さ,有用性,およびプライバシー保護を評価するために設計されたオープンソースの評価フレームワークであるSynEvalを紹介する。
論文 参考訳(メタデータ) (2024-04-20T08:08:28Z) - Best Practices and Lessons Learned on Synthetic Data for Language Models [83.63271573197026]
AIモデルの成功は、大規模で多様な、高品質なデータセットの可用性に依存している。
合成データは、現実世界のパターンを模倣する人工データを生成することによって、有望なソリューションとして現れてきた。
論文 参考訳(メタデータ) (2024-04-11T06:34:17Z) - Scaling While Privacy Preserving: A Comprehensive Synthetic Tabular Data
Generation and Evaluation in Learning Analytics [0.412484724941528]
プライバシーは学習分析(LA)の進歩に大きな障害となり、匿名化の不十分さやデータ誤用といった課題を提示している。
合成データは潜在的な対策として現れ、堅牢なプライバシー保護を提供する。
LAの合成データに関する以前の研究では、プライバシーとデータユーティリティの微妙なバランスを評価するのに不可欠な、徹底的な評価が欠如していた。
論文 参考訳(メタデータ) (2024-01-12T20:27:55Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [52.5766244206855]
本稿では,セマンティックセグメンテーションにおける信頼性を評価するために,データの自動合成を行う最先端生成モデルに挑戦する。
安定拡散を微調整することにより、OODドメインやOODオブジェクトに塗布された合成データのゼロショット生成を行う。
我々は,合成データの性能と実OODデータの性能との間に高い相関関係を示し,妥当性を示す。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - The Use of Synthetic Data to Train AI Models: Opportunities and Risks
for Sustainable Development [0.6906005491572401]
本稿では,合成データの生成,利用,普及を規定する政策について検討する。
優れた合成データポリシーは、プライバシの懸念とデータの有用性のバランスを取らなければならない。
論文 参考訳(メタデータ) (2023-08-31T23:18:53Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Measuring Utility and Privacy of Synthetic Genomic Data [3.635321290763711]
人工ゲノムデータを生成するための5つの最先端モデルの実用性とプライバシ保護を最初に評価する。
全体として、ボード全体でうまく機能する合成ゲノムデータを生成するための単一のアプローチは存在しない。
論文 参考訳(メタデータ) (2021-02-05T17:41:01Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。