論文の概要: Can large language models be privacy preserving and fair medical coders?
- arxiv url: http://arxiv.org/abs/2412.05533v1
- Date: Sat, 07 Dec 2024 04:27:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:40.399455
- Title: Can large language models be privacy preserving and fair medical coders?
- Title(参考訳): 大きな言語モデルはプライバシ保護と公正な医療用コーダになり得るか?
- Authors: Ali Dadsetan, Dorsa Soleymani, Xijie Zeng, Frank Rudzicz,
- Abstract要約: 差別化プライバシ(DP)は、そのような設定でプライバシを保存するための一般的な方法である。
医用符号化のNLPタスク(ICD分類)にDPを適用する際の2つの重要なトレードオフについて検討する。
- 参考スコア(独自算出の注目度): 13.49769820767045
- License:
- Abstract: Protecting patient data privacy is a critical concern when deploying machine learning algorithms in healthcare. Differential privacy (DP) is a common method for preserving privacy in such settings and, in this work, we examine two key trade-offs in applying DP to the NLP task of medical coding (ICD classification). Regarding the privacy-utility trade-off, we observe a significant performance drop in the privacy preserving models, with more than a 40% reduction in micro F1 scores on the top 50 labels in the MIMIC-III dataset. From the perspective of the privacy-fairness trade-off, we also observe an increase of over 3% in the recall gap between male and female patients in the DP models. Further understanding these trade-offs will help towards the challenges of real-world deployment.
- Abstract(参考訳): 患者のデータのプライバシ保護は、マシンラーニングアルゴリズムをヘルスケアにデプロイする上で重要な問題である。
差分プライバシ(DP)は,そのような設定でプライバシを保存するための一般的な方法であり,本研究では,医用コーディング(ICD)のNLPタスクにDPを適用する際の2つの重要なトレードオフについて検討する。
プライバシとユーティリティのトレードオフについては,MIMIC-IIIデータセットの上位50ラベルのマイクロF1スコアを40%以上削減し,プライバシ保護モデルの大幅なパフォーマンス低下を観察する。
また,プライバシ・フェアネスのトレードオフの観点から,DPモデルでは男女間のリコールギャップが3%以上増加していることも確認した。
これらのトレードオフのさらなる理解は、現実のデプロイメントの課題に寄与する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Differential privacy for protecting patient data in speech disorder detection using deep learning [11.01272267983849]
本研究は,ディファレンシャルプライバシ(DP)が病的音声データに与える影響を初めて調べたものである。
プライバシー予算7.51のDPを用いたトレーニングでは,最大精度が3.85%低下した。
本研究は,スペイン語を話すパーキンソン病患者の小さなデータセットに対するアプローチを一般化するために検証した。
論文 参考訳(メタデータ) (2024-09-27T18:25:54Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Client-Level Differential Privacy via Adaptive Intermediary in Federated
Medical Imaging [33.494287036763716]
プライバシ保護とパフォーマンスの差分プライバシ(DP)のトレードオフは、現実の医療シナリオではいまだ検討されていない。
本稿では,コミュニケーションにおけるプライバシを重視したクライアントレベルのDPのコンテキスト下でのトレードオフを最適化することを提案する。
プライバシを損なうことなくパフォーマンスを向上させるための適応型仲介手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:12:37Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings [34.26542589537452]
差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
論文 参考訳(メタデータ) (2020-10-13T19:56:37Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。