論文の概要: Bias by Design? How Data Practices Shape Fairness in AI Healthcare Systems
- arxiv url: http://arxiv.org/abs/2510.20332v1
- Date: Thu, 23 Oct 2025 08:32:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:17.618959
- Title: Bias by Design? How Data Practices Shape Fairness in AI Healthcare Systems
- Title(参考訳): バイアズ・バイアズ・ア・デザイン : AI医療システムにおけるデータ実践の公平性
- Authors: Anna Arias-Duart, Maria Eugenia Cardello, Atia Cortés,
- Abstract要約: 歴史的、表現的、測定的バイアスを含む、複数のユースケースにまたがるいくつかの種類のバイアスを特定します。
これらのバイアスは、性別、性別、年齢、生息地、社会経済的地位、機器、ラベル付けなどの変数に現れる。
臨床問題設計とデータ収集の公正性とロバスト性を改善するための実践的勧告を締めくくった。
- 参考スコア(独自算出の注目度): 1.7259725776748482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) holds great promise for transforming healthcare. However, despite significant advances, the integration of AI solutions into real-world clinical practice remains limited. A major barrier is the quality and fairness of training data, which is often compromised by biased data collection practices. This paper draws on insights from the AI4HealthyAging project, part of Spain's national R&D initiative, where our task was to detect biases during clinical data collection. We identify several types of bias across multiple use cases, including historical, representation, and measurement biases. These biases manifest in variables such as sex, gender, age, habitat, socioeconomic status, equipment, and labeling. We conclude with practical recommendations for improving the fairness and robustness of clinical problem design and data collection. We hope that our findings and experience contribute to guiding future projects in the development of fairer AI systems in healthcare.
- Abstract(参考訳): 人工知能(AI)は医療を変革する大きな可能性を秘めている。
しかし、大きな進歩にもかかわらず、現実の臨床実践へのAIソリューションの統合は依然として限られている。
大きな障壁は、トレーニングデータの質と公平性である。
本稿では,スペインのR&Dイニシアチブの一部であるAI4HealthyAgingプロジェクトの知見を引用する。
歴史的、表現的、測定的バイアスを含む、複数のユースケースにまたがるいくつかの種類のバイアスを特定します。
これらのバイアスは、性別、性別、年齢、生息地、社会経済的地位、機器、ラベル付けなどの変数に現れる。
臨床問題設計とデータ収集の公正性とロバスト性を改善するための実践的勧告を締めくくった。
私たちの発見と経験が、医療におけるより公平なAIシステムの開発における将来のプロジェクトの指導に寄与することを願っています。
関連論文リスト
- A Comprehensive Review of Datasets for Clinical Mental Health AI Systems [55.67299586253951]
本稿では,AIを活用した臨床アシスタントの訓練・開発に関連する臨床精神保健データセットの総合的調査を行う。
本調査では, 縦断データの欠如, 文化・言語表現の制限, 一貫性のない収集・注釈基準, 合成データのモダリティの欠如など, 重要なギャップを明らかにした。
論文 参考訳(メタデータ) (2025-08-13T13:42:35Z) - AI-Driven Healthcare: A Review on Ensuring Fairness and Mitigating Bias [4.9325218275489515]
本稿では、医療におけるAIの統合について検討し、バイアスに関連する重要な課題と緩和戦略について述べる。
公平な医療提供を確保するためには、多様なデータセット、公平性に配慮したアルゴリズム、規制フレームワークの必要性を強調します。
論文は、今後の研究への推奨、学際的アプローチの提唱、AI意思決定における透明性、革新的で包括的なAIアプリケーションの開発で締めくくっている。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - TrialBench: Multi-Modal Artificial Intelligence-Ready Clinical Trial Datasets [54.98321887435557]
本稿では, マルチモーダル入力特徴と臨床治験設計における8つの重要な予測課題を網羅した, 精巧にキュレートされた23個のAI対応データセットについて述べる。
データセットのユーザビリティと信頼性を確保するため、各タスクに基本的な検証方法を提供する。
このようなオープンアクセスデータセットが利用可能になることは、臨床試験設計のための高度なAIアプローチの開発を促進することを期待する。
論文 参考訳(メタデータ) (2024-06-30T09:13:10Z) - Trustworthy and Practical AI for Healthcare: A Guided Deferral System with Large Language Models [1.2281181385434294]
大規模言語モデル(LLM)は、医療における様々なアプリケーションに有用な技術を提供する。
彼らの幻覚化傾向と既存のプロプライエタリなシステムへの依存は、批判的な意思決定に関する環境に課題をもたらす。
本稿では,障害分類のための医療報告を同時に解析し,ヒトへの知的な指導による不確実な予測を推論する新しいHAICガイド型deferralシステムを提案する。
論文 参考訳(メタデータ) (2024-06-11T12:41:54Z) - Challenges for Responsible AI Design and Workflow Integration in Healthcare: A Case Study of Automatic Feeding Tube Qualification in Radiology [35.284458448940796]
ナトリウムガスチューブ(NGT)は、鼻から胃に挿入されたチューブを供給し、栄養や薬品を供給している。
近年のAI開発は、チェストX線画像からNGT配置を堅牢に検出する可能性を示している。
本稿では,この問題に対する人間中心のアプローチを提案するとともに,コンテキスト調査および15の臨床ステークホルダとの詳細なインタビューの結果から得られた知見について述べる。
論文 参考訳(メタデータ) (2024-05-08T14:16:22Z) - Generalization in medical AI: a perspective on developing scalable models [2.6728181032975598]
医療用AIモデルの配布外一般化性能を特徴付ける3段階尺度が導入された。
このスケールは、現実世界の医療シナリオの多様性と、対象のドメインデータとラベルがモデル再分類に利用できるかどうかに対処する。
論文 参考訳(メタデータ) (2023-11-09T14:54:28Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - Q-Pain: A Question Answering Dataset to Measure Social Bias in Pain
Management [5.044336341666555]
痛み管理の文脈におけるQAのバイアスを評価するためのデータセットであるQ-Painを紹介する。
本稿では, 治療決定の際に生じる潜在的なバイアスを測定するための, 実験設計のサンプルを含む, 厳密な新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T21:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。