論文の概要: Representational Ethical Model Calibration
- arxiv url: http://arxiv.org/abs/2207.12043v1
- Date: Mon, 25 Jul 2022 10:33:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:52:09.388943
- Title: Representational Ethical Model Calibration
- Title(参考訳): 表象的倫理モデル校正
- Authors: Robert Carruthers, Isabel Straw, James K Ruffle, Daniel Herron, Amy
Nelson, Danilo Bzdok, Delmiro Fernandez-Reyes, Geraint Rees, and Parashkev
Nachev
- Abstract要約: エピステム・エクイティ(英: Epistem equity)は、意思決定におけるインテリジェンスの比較忠実度である。
その量化の一般的な枠組みは、言うまでもなく、保証は存在しない。
表現倫理モデルのための包括的枠組みを導入する。
- 参考スコア(独自算出の注目度): 0.7078141380481605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Equity is widely held to be fundamental to the ethics of healthcare. In the
context of clinical decision-making, it rests on the comparative fidelity of
the intelligence -- evidence-based or intuitive -- guiding the management of
each individual patient. Though brought to recent attention by the
individuating power of contemporary machine learning, such epistemic equity
arises in the context of any decision guidance, whether traditional or
innovative. Yet no general framework for its quantification, let alone
assurance, currently exists. Here we formulate epistemic equity in terms of
model fidelity evaluated over learnt multi-dimensional representations of
identity crafted to maximise the captured diversity of the population,
introducing a comprehensive framework for Representational Ethical Model
Calibration. We demonstrate use of the framework on large-scale multimodal data
from UK Biobank to derive diverse representations of the population, quantify
model performance, and institute responsive remediation. We offer our approach
as a principled solution to quantifying and assuring epistemic equity in
healthcare, with applications across the research, clinical, and regulatory
domains.
- Abstract(参考訳): エクイティは医療の倫理の基本であると広く考えられている。
臨床的意思決定の文脈では、個々の患者の管理を導く知性(エビデンスベースまたは直感的)の比較忠実度に依存している。
現代の機械学習の分断的な力によって近年注目されているが、そのような認識的平等は、伝統的でも革新的でも、あらゆる決定指導の文脈で生じている。
しかし、その量化に関する一般的な枠組みは、保証なしに、現在存在しない。
ここでは,人口の多様性を最大化するために作られた多次元のアイデンティティを学習する上で評価されるモデル忠実性の観点から認識的等式を定式化し,表現的倫理モデル校正のための包括的枠組みを導入する。
英国バイオバンクの大規模マルチモーダルデータに基づくフレームワークを用いて、人口の多様な表現を導出し、モデル性能を定量化し、レスポンシブ修復を行う。
我々は、医療における疫学的株式の定量化と保証を原則とした解決策として、研究、臨床、規制分野にまたがる応用を提供する。
関連論文リスト
- DiCoM -- Diverse Concept Modeling towards Enhancing Generalizability in
Chest X-Ray Studies [7.181101025125887]
胸部X線(胸部X線、CXR)は、広く用いられている画像モダリティである。
自己指導型プレトレーニングは、多くの下流視覚タスクにおいて教師付きプレトレーニングよりも優れていることが証明されている。
本稿では,新しい自己教師型トレーニングパラダイムであるDiCoMについて紹介する。
論文 参考訳(メタデータ) (2024-02-22T20:51:37Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Multimodal Machine Learning in Image-Based and Clinical Biomedicine:
Survey and Prospects [2.1070612998322438]
本稿では,臨床予測のためのマルチモーダルモデルの変換可能性について検討する。
進歩にもかかわらず、多くの生物医学領域におけるデータバイアスや「ビッグデータ」の不足といった課題が続いている。
論文 参考訳(メタデータ) (2023-11-04T05:42:51Z) - Explainable AI for clinical risk prediction: a survey of concepts,
methods, and modalities [2.9404725327650767]
臨床リスク予測のための説明可能なモデルの開発状況
外部検証の必要性と多様な解釈可能性メソッドの組み合わせを強調している。
臨床リスク予測における説明可能性へのエンドツーエンドアプローチは成功に不可欠である。
論文 参考訳(メタデータ) (2023-08-16T14:51:51Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Context-dependent Explainability and Contestability for Trustworthy
Medical Artificial Intelligence: Misclassification Identification of
Morbidity Recognition Models in Preterm Infants [0.0]
説明可能なAI(XAI)は、エンドユーザーをサポートするAI推論を明確にすることで、この要件に対処することを目指している。
提案手法は,3つの主要な柱上に構築され,臨床コンテキストの潜時空間を利用して特徴セットを分解し,世界的説明の臨床的関連性を評価するとともに,局所的説明に基づく潜時空間類似性(LSS)を考察した。
論文 参考訳(メタデータ) (2022-12-17T07:59:09Z) - In-Bed Human Pose Estimation from Unseen and Privacy-Preserving Image
Domains [22.92165116962952]
ベッド内の人間の姿勢推定は、医療状況の評価において潜在的な価値を持つ重要な健康関連指標を提供する。
本稿では,マルチモーダル条件変分オートエンコーダ(MC-VAE)を提案する。
本研究は, 身体位置が利用可能なモダリティから効果的に認識できることを示し, ベースラインモデルと同等の結果が得られることを示した。
論文 参考訳(メタデータ) (2021-11-30T04:56:16Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。