論文の概要: Uncertainty Wrapper in the medical domain: Establishing transparent
uncertainty quantification for opaque machine learning models in practice
- arxiv url: http://arxiv.org/abs/2311.05245v1
- Date: Thu, 9 Nov 2023 09:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 15:41:44.368152
- Title: Uncertainty Wrapper in the medical domain: Establishing transparent
uncertainty quantification for opaque machine learning models in practice
- Title(参考訳): 医療領域における不確実性ラッパー--不透明機械学習モデルの透明不確実性定量化の実際
- Authors: Lisa J\"ockel, Michael Kl\"as, Georg Popp, Nadja Hilger, Stephan
Fricke
- Abstract要約: 本稿では医療分野からの応用としてフローを用いた不確かさラッパーの適用性と実用性を示す。
これは、信頼性と透明な不確実性定量化とともに、機械学習モデルを使用することの恩恵を受けることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When systems use data-based models that are based on machine learning (ML),
errors in their results cannot be ruled out. This is particularly critical if
it remains unclear to the user how these models arrived at their decisions and
if errors can have safety-relevant consequences, as is often the case in the
medical field. In such cases, the use of dependable methods to quantify the
uncertainty remaining in a result allows the user to make an informed decision
about further usage and draw possible conclusions based on a given result. This
paper demonstrates the applicability and practical utility of the Uncertainty
Wrapper using flow cytometry as an application from the medical field that can
benefit from the use of ML models in conjunction with dependable and
transparent uncertainty quantification.
- Abstract(参考訳): システムは機械学習(ML)に基づくデータベースモデルを使用する場合、結果のエラーを除外することはできない。
特に重要なのは、これらのモデルがどのように決定に到達したのか、そしてエラーが医療現場でよく見られるように、安全関連の結果をもたらす可能性があるかどうかがユーザーに不明確である場合である。
このような場合、結果に残る不確実性を定量化するための信頼可能な方法を使用することで、ユーザは、さらなる使用について情報的決定を行い、与えられた結果に基づいて可能な結論を引き出すことができる。
本稿では,フローサイトメトリーを用いた不確かさラッパーの適用性および実用性について,信頼性と透明な不確実性定量化とともにMLモデルの利用の恩恵を受けることができる医療分野の応用として示す。
関連論文リスト
- Enhancing Uncertainty Quantification in Drug Discovery with Censored Regression Labels [1.9354018523009415]
私たちはアンサンブルベース、ベイジアン、ガウシアンのモデルを検閲されたラベルから学ぶためのツールで適応します。
以上の結果から,検閲されたラベルから得られる部分的な情報にもかかわらず,実際の医薬品設定を正確かつ確実にモデル化することが不可欠であることが示唆された。
論文 参考訳(メタデータ) (2024-09-06T14:38:47Z) - Large Language Models Must Be Taught to Know What They Don't Know [97.90008709512921]
正解と誤解の小さなデータセットを微調整すると、高い一般化と計算オーバーヘッドの少ない不確実性推定が得られることを示す。
また,確実な不確実性推定を可能にする機構についても検討し,多くのモデルを汎用的不確実性推定器として利用することができることを示した。
論文 参考訳(メタデータ) (2024-06-12T16:41:31Z) - Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Unified Uncertainty Estimation for Cognitive Diagnosis Models [70.46998436898205]
本稿では,幅広い認知診断モデルに対する統一的不確実性推定手法を提案する。
診断パラメータの不確かさをデータ・アスペクトとモデル・アスペクトに分解する。
本手法は有効であり,認知診断の不確実性に関する有用な知見を提供することができる。
論文 参考訳(メタデータ) (2024-03-09T13:48:20Z) - Fact-Checking the Output of Large Language Models via Token-Level Uncertainty Quantification [116.77055746066375]
大型言語モデル(LLM)は幻覚、すなわちその出力に誤った主張を生じさせることで有名である。
本稿では,トークンレベルの不確実性定量化に基づくファクトチェックと幻覚検出パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-07T17:44:17Z) - Identifiable causal inference with noisy treatment and no side information [6.432072145009342]
本研究では,不正確な連続処理変数を仮定するモデルを提案する。
我々は,提案モデルの因果効果の推定値が,側情報や測定誤差の分散に関する知識がなくても同定可能であることを証明した。
我々の研究は、信頼できる因果推論を行うアプリケーションの範囲を広げている。
論文 参考訳(メタデータ) (2023-06-18T18:38:10Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Modeling Disagreement in Automatic Data Labelling for Semi-Supervised
Learning in Clinical Natural Language Processing [2.016042047576802]
放射線学報告における観測検出問題に応用した最先端の予測モデルからの不確実性推定の品質について検討する。
論文 参考訳(メタデータ) (2022-05-29T20:20:49Z) - Reliable and Trustworthy Machine Learning for Health Using Dataset Shift
Detection [7.263558963357268]
予測不能なMLモデルの振る舞いは、特に健康領域において、その安全性に対する深刻な懸念を引き起こす。
マハラノビス距離およびグラム行列に基づく分布外検出法は,分布外データを高精度に検出できることを示す。
次に、アウト・オブ・ディストリビューションスコアを人間の解釈可能なConFIDENCE SCOREに変換し、ユーザーの健康MLアプリケーションとのインタラクションに与える影響を調査する。
論文 参考訳(メタデータ) (2021-10-26T20:49:01Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Dirichlet uncertainty wrappers for actionable algorithm accuracy
accountability and auditability [0.5156484100374058]
本研究では,不確実性の尺度を用いて出力予測を充実させるラッパーを提案する。
結果の不確実性に基づいて、より確実な予測を選択する拒絶制度を提唱する。
その結果,ラッパーが計算した不確実性の有効性が示された。
論文 参考訳(メタデータ) (2019-12-29T11:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。