論文の概要: Private and interpretable clinical prediction with quantum-inspired tensor train models
- arxiv url: http://arxiv.org/abs/2602.06110v1
- Date: Thu, 05 Feb 2026 19:00:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.058159
- Title: Private and interpretable clinical prediction with quantum-inspired tensor train models
- Title(参考訳): 量子インスパイアされたテンソルトレインモデルによるプライベートおよび解釈可能な臨床予測
- Authors: José Ramón Pareja Monturiol, Juliette Sinnott, Roger G. Melko, Mohammad Kohandel,
- Abstract要約: 臨床環境での機械学習は、予測精度、解釈可能性、プライバシーのバランスをとる必要がある。
モデルをトレーニングするためにどの公開データセットが使用されたかを特定する攻撃を設計することで、これらのリスクを実証的に評価する。
以上の結果から,両モデルともトレーニングセット情報を漏洩し,特にホワイトボックスのシナリオではLRが脆弱であることが示唆された。
これらの脆弱性を緩和するために、テンソルトレインに離散化されたモデルをテンソルトレインにテンソル化する量子インスパイアされた防御法を提案する。
- 参考スコア(独自算出の注目度): 0.6524460254566904
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning in clinical settings must balance predictive accuracy, interpretability, and privacy. Models such as logistic regression (LR) offer transparency, while neural networks (NNs) provide greater predictive power; yet both remain vulnerable to privacy attacks. We empirically assess these risks by designing attacks that identify which public datasets were used to train a model under varying levels of adversarial access, applying them to LORIS, a publicly available LR model for immunotherapy response prediction, as well as to additional shallow NN models trained for the same task. Our results show that both models leak significant training-set information, with LRs proving particularly vulnerable in white-box scenarios. Moreover, we observe that common practices such as cross-validation in LRs exacerbate these risks. To mitigate these vulnerabilities, we propose a quantum-inspired defense based on tensorizing discretized models into tensor trains (TTs), which fully obfuscates parameters while preserving accuracy, reducing white-box attacks to random guessing and degrading black-box attacks comparably to Differential Privacy. TT models retain LR interpretability and extend it through efficient computation of marginal and conditional distributions, while also enabling this higher level of interpretability for NNs. Our results demonstrate that tensorization is widely applicable and establishes a practical foundation for private, interpretable, and effective clinical prediction.
- Abstract(参考訳): 臨床環境での機械学習は、予測精度、解釈可能性、プライバシーのバランスをとる必要がある。
ロジスティック回帰(LR)のようなモデルは透明性を提供し、ニューラルネットワーク(NN)はより予測力を提供しますが、どちらもプライバシ攻撃に弱いままです。
我々は、これらのリスクを経験的に評価するために、異なるレベルの敵アクセス下でモデルをトレーニングするためにどのパブリックデータセットを使用していたかを特定する攻撃を設計し、LORISに適用し、免疫療法応答予測のための公開LRモデルと、同じタスクのために訓練された浅いNNモデルを適用した。
以上の結果から,両モデルともトレーニングセット情報を漏洩し,特にホワイトボックスのシナリオではLRが脆弱であることが示唆された。
さらに、LRにおけるクロスバリデーションのような一般的な実践がこれらのリスクを悪化させるのを観察する。
これらの脆弱性を軽減するために、離散化モデルをテンソルトレイン(TT)にテンソル化する量子インスパイアされた防御法を提案し、精度を維持しながらパラメータを完全に難読化し、ホワイトボックス攻撃をランダムな推測に還元し、ブラックボックス攻撃を微分プライバシーと同等に分解する。
TTモデルはLRの解釈可能性を保持し、限界分布と条件分布の効率的な計算により拡張すると同時に、NNに対して高いレベルの解釈可能性を実現する。
本研究は, テンソル化が広く適用可能であることを示し, 個人的, 解釈可能, 効果的な臨床予測のための実践的基盤を確立した。
関連論文リスト
- The Eminence in Shadow: Exploiting Feature Boundary Ambiguity for Robust Backdoor Attacks [51.468144272905135]
深層ニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱なままでも重要なアプリケーションを支える。
バックドア攻撃を標的とした理論的解析を行い,不均質なモデル操作を実現するための疎い決定境界に着目した。
エミネンス(Eminence)は、理論的な保証と固有なステルス特性を持つ、説明可能で堅牢なブラックボックスバックドアフレームワークである。
論文 参考訳(メタデータ) (2025-12-11T08:09:07Z) - The Surprising Harmfulness of Benign Overfitting for Adversarial
Robustness [13.120373493503772]
根拠的真理そのものが敵の例に対して堅牢であるとしても、標準のアウト・オブ・サンプルのリスク目標の観点から見れば、明らかに過適合なモデルは良性である、という驚くべき結果が証明されます。
我々の発見は、実際に観察されたパズリング現象に関する理論的洞察を与え、真の標的関数(例えば、人間)は副次的攻撃に対して堅牢であり、一方、当初過適合のニューラルネットワークは、堅牢でないモデルに導かれる。
論文 参考訳(メタデータ) (2024-01-19T15:40:46Z) - Improved and Interpretable Defense to Transferred Adversarial Examples
by Jacobian Norm with Selective Input Gradient Regularization [31.516568778193157]
ディープニューラルネットワーク(DNN)の堅牢性を改善するために、AT(Adversarial Training)がよく用いられる。
本研究では,ジャコビアンノルムと選択的入力勾配正規化(J-SIGR)に基づくアプローチを提案する。
実験により、提案したJ-SIGRは、転送された敵攻撃に対するロバスト性を向上し、ニューラルネットワークからの予測が容易に解釈できることが示されている。
論文 参考訳(メタデータ) (2022-07-09T01:06:41Z) - A Blessing of Dimensionality in Membership Inference through
Regularization [29.08230123469755]
モデルのパラメータ数がいかにプライバシーとユーティリティのトレードオフを引き起こすかを示す。
次に、適切な一般化正規化と組み合わせることで、モデルのパラメータの数を増やすことで、そのプライバシと性能の両方を実際に増加させることができることを示す。
論文 参考訳(メタデータ) (2022-05-27T15:44:00Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Stochastic-Shield: A Probabilistic Approach Towards Training-Free
Adversarial Defense in Quantized CNNs [0.0]
量子ニューラルネットワーク(NN)は、小さなハードウェアプラットフォームにディープラーニングモデルを効率的にデプロイするための一般的な標準である。
再トレーニングやアドホックな微調整の負担を伴わずに,各モジュールを高精度に実現することにより,効率とロバスト性が両立できることを示す。
論文 参考訳(メタデータ) (2021-05-13T18:59:15Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。