論文の概要: Privacy at Scale in Networked Healthcare
- arxiv url: http://arxiv.org/abs/2601.04298v1
- Date: Wed, 07 Jan 2026 17:58:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.871263
- Title: Privacy at Scale in Networked Healthcare
- Title(参考訳): ネットワーク型医療における大規模プライバシ
- Authors: M. Amin Rahimian, Benjamin Panny, James Joshi,
- Abstract要約: デジタル化されたネットワーク医療は、早期発見、精密治療、継続的なケアを約束する。
しかし、プライバシーの損失とコンプライアンスのリスクも拡大している。
私たちは、サイロ化されたアプリケーション固有の保護から、大規模なプライバシ・バイ・デザインへの移行を議論しています。
- 参考スコア(独自算出の注目度): 1.0195618602298682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Digitized, networked healthcare promises earlier detection, precision therapeutics, and continuous care; yet, it also expands the surface for privacy loss and compliance risk. We argue for a shift from siloed, application-specific protections to privacy-by-design at scale, centered on decision-theoretic differential privacy (DP) across the full healthcare data lifecycle; network-aware privacy accounting for interdependence in people, sensors, and organizations; and compliance-as-code tooling that lets health systems share evidence while demonstrating regulatory due care. We synthesize the privacy-enhancing technology (PET) landscape in health (federated analytics, DP, cryptographic computation), identify practice gaps, and outline a deployable agenda involving privacy-budget ledgers, a control plane to coordinate PET components across sites, shared testbeds, and PET literacy, to make lawful, trustworthy sharing the default. We illustrate with use cases (multi-site trials, genomics, disease surveillance, mHealth) and highlight distributed inference as a workhorse for multi-institution learning under explicit privacy budgets.
- Abstract(参考訳): デジタル化されたネットワーク化された医療は、早期発見、精密治療、継続的なケアを約束する。
私たちは、サイロ化されたアプリケーション固有の保護から、完全な医療データライフサイクル全体にわたる決定論的差分プライバシー(DP)を中心にした、大規模に設計されたプライバシ・バイ・デザインへのシフト、人やセンサー、組織の相互依存をネットワークに認識するプライバシ・アカウント、健康システムが規制デューケアを実証しながら証拠を共有するコンプライアンス・アズ・コード・ツーリングなどについて論じています。
我々は、健康におけるプライバシー強化技術(PET)の展望(フェデレーション分析、DP、暗号計算)を合成し、実践ギャップを特定し、プライバシ予算台帳、サイト間でPETコンポーネントをコーディネートするコントロールプレーン、共有テストベッド、PETリテラシーなどを含むデプロイ可能なアジェンダの概要を概説し、デフォルトを合法かつ信頼できる共有を実現する。
マルチサイト・トライアル、ゲノミクス、疾病監視、mHealth) のユースケースと、明示的なプライバシー予算の下での多施設学習のためのワークホースとして分散推論を強調した。
関連論文リスト
- Differential Privacy-Driven Framework for Enhancing Heart Disease Prediction [7.473832609768354]
マシンラーニングは医療において重要であり、パーソナライズされた治療、早期疾患の検出、予測分析、画像解釈、薬物発見、効率的な手術、患者のモニタリングをサポートする。
本稿では、差分プライバシーとフェデレーション学習を含む機械学習手法を用いて、プライバシ保護モデルを開発する。
その結果、差分プライバシーを持つフェデレーション学習モデルを用いることで、テスト精度が85%向上し、患者データがプロセスを通して安全でプライベートであることが確認された。
論文 参考訳(メタデータ) (2025-04-25T01:27:40Z) - Towards Privacy-Preserving Medical Imaging: Federated Learning with Differential Privacy and Secure Aggregation Using a Modified ResNet Architecture [0.0]
本研究では,局所的な差分プライバシーとセキュアアグリゲーションを組み合わせたフェデレート学習フレームワークを提案する。
また、差分プライバシーに最適化されたResNetアーキテクチャであるDPResNetを提案する。
論文 参考訳(メタデータ) (2024-12-01T05:52:29Z) - Data Obfuscation through Latent Space Projection (LSP) for Privacy-Preserving AI Governance: Case Studies in Medical Diagnosis and Finance Fraud Detection [0.0]
本稿では、AIガバナンスの強化と、責任あるAIコンプライアンスの確保を目的とした、新しい技術であるLSP(Data Obfuscation through Latent Space Projection)を紹介する。
LSPは機械学習を使用して、機密データを潜在空間に投影し、モデルトレーニングと推論に不可欠な機能を保ちながら効果的に難読化する。
LSPの有効性は、ベンチマークデータセットの実験と、医療がん診断と金融詐欺分析の2つの実世界のケーススタディを通じて検証する。
論文 参考訳(メタデータ) (2024-10-22T22:31:03Z) - A Qualitative Analysis Framework for mHealth Privacy Practices [0.0]
本稿では,mHealthアプリにおけるプライバシプラクティスの質的評価のための新しいフレームワークを提案する。
調査では、Androidプラットフォーム上でmHealthをリードする152のアプリを分析した。
以上の結果から,機密情報の誤用や誤用に悩まされていることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T08:57:52Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Towards Blockchain-Assisted Privacy-Aware Data Sharing For Edge
Intelligence: A Smart Healthcare Perspective [19.208368632576153]
リンク攻撃はプライバシードメインにおける支配的な攻撃の一種である。
敵は 健康データを偽装するために 毒殺攻撃を仕掛ける 誤診や 身体的損傷までも 引き起こす
個人の健康データを保護するために,ユーザ間の信頼度に基づく個人差分プライバシモデルを提案する。
論文 参考訳(メタデータ) (2023-06-29T02:06:04Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。