論文の概要: Striking the Perfect Balance: Preserving Privacy While Boosting Utility in Collaborative Medical Prediction Platforms
- arxiv url: http://arxiv.org/abs/2507.11187v1
- Date: Tue, 15 Jul 2025 10:41:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.082319
- Title: Striking the Perfect Balance: Preserving Privacy While Boosting Utility in Collaborative Medical Prediction Platforms
- Title(参考訳): 完璧なバランスを取る: 協調医療予測プラットフォームにおける実用性を高めながらプライバシを維持する
- Authors: Shao-Bo Lin, Xiaotong Liu, Yao Wang,
- Abstract要約: オンライン共同医療予測プラットフォームは、巨大な電子健康記録を活用することで、利便性とリアルタイムフィードバックを提供する。
まずプライバシ攻撃、すなわち患者を標的とする属性攻撃、および医師を対象とするモデル抽出攻撃を明らかにし、対応するプライバシ原則を規定する。
次に、プライバシ保護機構を提案し、それを新しいワンショット分散学習フレームワークに統合し、プライバシ要件とパフォーマンス目標の両方を同時に満たすことを目的としている。
- 参考スコア(独自算出の注目度): 17.820994147317837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online collaborative medical prediction platforms offer convenience and real-time feedback by leveraging massive electronic health records. However, growing concerns about privacy and low prediction quality can deter patient participation and doctor cooperation. In this paper, we first clarify the privacy attacks, namely attribute attacks targeting patients and model extraction attacks targeting doctors, and specify the corresponding privacy principles. We then propose a privacy-preserving mechanism and integrate it into a novel one-shot distributed learning framework, aiming to simultaneously meet both privacy requirements and prediction performance objectives. Within the framework of statistical learning theory, we theoretically demonstrate that the proposed distributed learning framework can achieve the optimal prediction performance under specific privacy requirements. We further validate the developed privacy-preserving collaborative medical prediction platform through both toy simulations and real-world data experiments.
- Abstract(参考訳): オンライン共同医療予測プラットフォームは、巨大な電子健康記録を活用することで、利便性とリアルタイムフィードバックを提供する。
しかし、プライバシや予測品質の低さに対する懸念が高まると、患者の参加や医師の協力が損なわれる。
本稿ではまず,患者を対象とする属性攻撃と,医師を対象とするモデル抽出攻撃のプライバシ攻撃を明らかにし,それに対応するプライバシ原則を規定する。
次に、プライバシ保護機構を提案し、それを新しいワンショット分散学習フレームワークに統合し、プライバシ要件とパフォーマンス目標の両方を同時に満たすことを目的としている。
統計的学習理論の枠組みの中で,提案した分散学習フレームワークが,特定のプライバシー要件の下で最適な予測性能を達成できることを理論的に実証する。
さらに、おもちゃのシミュレーションと実世界のデータ実験の両方を通して、プライバシ保護のための協調医療予測プラットフォームを検証した。
関連論文リスト
- Differential Privacy-Driven Framework for Enhancing Heart Disease Prediction [7.473832609768354]
マシンラーニングは医療において重要であり、パーソナライズされた治療、早期疾患の検出、予測分析、画像解釈、薬物発見、効率的な手術、患者のモニタリングをサポートする。
本稿では、差分プライバシーとフェデレーション学習を含む機械学習手法を用いて、プライバシ保護モデルを開発する。
その結果、差分プライバシーを持つフェデレーション学習モデルを用いることで、テスト精度が85%向上し、患者データがプロセスを通して安全でプライベートであることが確認された。
論文 参考訳(メタデータ) (2025-04-25T01:27:40Z) - MyDigiTwin: A Privacy-Preserving Framework for Personalized Cardiovascular Risk Prediction and Scenario Exploration [0.12045539806824918]
MyDigiTwinは、健康デジタル双生児と個人の健康環境を統合するフレームワークである。
MyDigiTwinは、フェデレーション学習を使用して、生データを転送することなく、分散データセット間で予測モデルをトレーニングする。
概念実証は、コホートデータを用いてプライバシー保護CVD予測モデルをトレーニングする可能性を示している。
論文 参考訳(メタデータ) (2025-01-21T15:01:34Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Privacy-Preserving Heterogeneous Federated Learning for Sensitive Healthcare Data [12.30620268528346]
我々は、AAFV(Abstention-Aware Federated Voting)と呼ばれる新しいフレームワークを提案する。
AAFVは、データのプライバシを同時に保護しながら、共同で機密的に異質なローカルモデルをトレーニングすることができる。
特に,提案手法では,不均一な局所モデルから高信頼投票を選択するために,しきい値に基づく棄権方式を採用している。
論文 参考訳(メタデータ) (2024-06-15T08:43:40Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Private Prediction Sets [72.75711776601973]
機械学習システムは、個人のプライバシーの確実な定量化と保護を必要とする。
これら2つのデシラタを共同で扱う枠組みを提案する。
本手法を大規模コンピュータビジョンデータセット上で評価する。
論文 参考訳(メタデータ) (2021-02-11T18:59:11Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Privacy-Preserving Technology to Help Millions of People: Federated
Prediction Model for Stroke Prevention [25.276264953982253]
私たちの科学者とエンジニアは、ストロークのリスクを予測し、当社の連合予測モデルをクラウドサーバにデプロイするプライバシー保護スキームを提案しています。
我々のモデルは、特定の都市の病院から、実際のデータを共有することなく、すべての医療データをトレーニングします。
特に脳卒中例が少ない小さな病院では,いくつかの機械学習指標でフェデレーションモデルによりモデル性能が10%向上する。
論文 参考訳(メタデータ) (2020-06-15T08:51:23Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。