論文の概要: Algorithmic Bias, Generalist Models,and Clinical Medicine
- arxiv url: http://arxiv.org/abs/2305.04008v1
- Date: Sat, 6 May 2023 10:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 18:06:46.516592
- Title: Algorithmic Bias, Generalist Models,and Clinical Medicine
- Title(参考訳): アルゴリズムバイアス、ジェネラリストモデル、臨床医学
- Authors: Geoff Keeling
- Abstract要約: 臨床機械学習における支配的なパラダイムは、モデルが特定の臨床タスクのためのバイオメディカルデータセットに基づいて訓練されるという意味で狭くなっている。
新たなパラダイムは、GoogleのBERTやPaLMといった汎用言語モデルが、臨床ユースケースに適応しつつあるという意味で、一般論である。
これらの次世代モデルの多くは、以前の臨床モデルよりもかなりの性能向上をもたらすが、同時に新しい種類のアルゴリズムバイアスも導入している。
本稿では, 一般モデルにおける偏見が, 先行臨床モデルにおける偏見とどのように異なるのかを詳述し, アルゴリズム的偏見緩和のための実践的推奨事項を抽出する。
- 参考スコア(独自算出の注目度): 1.9143819780453073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The technical landscape of clinical machine learning is shifting in ways that
destabilize pervasive assumptions about the nature and causes of algorithmic
bias. On one hand, the dominant paradigm in clinical machine learning is narrow
in the sense that models are trained on biomedical datasets for particular
clinical tasks such as diagnosis and treatment recommendation. On the other
hand, the emerging paradigm is generalist in the sense that general-purpose
language models such as Google's BERT and PaLM are increasingly being adapted
for clinical use cases via prompting or fine-tuning on biomedical datasets.
Many of these next-generation models provide substantial performance gains over
prior clinical models, but at the same time introduce novel kinds of
algorithmic bias and complicate the explanatory relationship between
algorithmic biases and biases in training data. This paper articulates how and
in what respects biases in generalist models differ from biases in prior
clinical models, and draws out practical recommendations for algorithmic bias
mitigation.
- Abstract(参考訳): 臨床機械学習の技術的展望は、アルゴリズムバイアスの性質と原因に関する広範な仮定を不安定化する方法にシフトしている。
一方、臨床機械学習における支配的なパラダイムは、診断や治療勧告などの特定の臨床タスクのために、バイオメディカルデータセットでモデルが訓練されるという意味では狭くなっている。
一方、新興パラダイムは、GoogleのBERTやPaLMといった汎用言語モデルが、バイオメディカルデータセットのプロンプトや微調整を通じて、臨床ユースケースに適応しつつあるという意味で、一般論である。
これらの次世代モデルの多くは、以前の臨床モデルよりもかなりの性能向上をもたらすが、同時に新しい種類のアルゴリズムバイアスを導入し、トレーニングデータにおけるアルゴリズムバイアスとバイアスの関係を複雑化する。
本稿では, 一般モデルにおける偏見が, 先行臨床モデルにおける偏見とどのように異なるのかを詳述し, アルゴリズム的偏見緩和のための実践的勧告を提示する。
関連論文リスト
- Learning Personalized Treatment Decisions in Precision Medicine: Disentangling Treatment Assignment Bias in Counterfactual Outcome Prediction and Biomarker Identification [0.05277756703318046]
本研究は,相互情報を用いた多種多様な治療課題バイアスをモデル化する。
経験的生物学的メカニズムを取り入れることで、実世界のデータの複雑さを反映したより現実的なベンチマークを作成する。
論文 参考訳(メタデータ) (2024-10-01T08:47:29Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - Patient Aware Active Learning for Fine-Grained OCT Classification [12.89552245538411]
本稿では,アクティブラーニングのサンプル選択プロセスに臨床知見を取り入れたフレームワークを提案する。
医学的に解釈可能な能動学習フレームワークは, OCT分類の性能向上のために, 患者から多彩な疾患の徴候を捉えている。
論文 参考訳(メタデータ) (2022-06-23T05:47:51Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - TrialGraph: Machine Intelligence Enabled Insight from Graph Modelling of
Clinical Trials [0.0]
我々はCT.gov, AACT, TrialTroveデータベースから収集した治験データセット(n=1191臨床試験、100万人の患者を代表する)を紹介する。
次に,グラフ機械学習アルゴリズムの数学的基礎と実装について詳述する。
我々はこれらのモデルを用いて、疾患、既往の医療状況、治療に関する情報を与えられた臨床試験の副作用情報を予測する訓練を行った。
論文 参考訳(メタデータ) (2021-12-15T15:36:57Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Clinical Validation of Single-Chamber Model-Based Algorithms Used to
Estimate Respiratory Compliance [2.9511531830032083]
人工肺のオープンで臨床的に検証されたデータセットを構築し,18名の挿管患者から約4万回の呼吸を行った。
次に,呼吸コンプライアンスを推定する「単一室」モデルを用いた15種類のアルゴリズムの評価を行った。
特に,4種類の患者換気器の非同期性に基づくアルゴリズムの性能について検討する。
論文 参考訳(メタデータ) (2021-09-19T07:34:15Z) - Adversarial Sample Enhanced Domain Adaptation: A Case Study on
Predictive Modeling with Electronic Health Records [57.75125067744978]
ドメイン適応を容易にするデータ拡張手法を提案する。
逆生成したサンプルはドメイン適応時に使用される。
その結果,本手法の有効性とタスクの一般性が確認された。
論文 参考訳(メタデータ) (2021-01-13T03:20:20Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z) - "Name that manufacturer". Relating image acquisition bias with task
complexity when training deep learning models: experiments on head CT [0.0]
我々は、データセットにおけるスキャナーメーカーの分布がディープラーニングモデルの全体的なバイアスにどのように貢献するかを分析する。
我々は、CNNが画像スキャナーメーカーを識別し、このバイアスがモデルの性能に大きな影響を与えることを実証した。
論文 参考訳(メタデータ) (2020-08-19T16:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。