論文の概要: A survey of recent methods for addressing AI fairness and bias in
biomedicine
- arxiv url: http://arxiv.org/abs/2402.08250v1
- Date: Tue, 13 Feb 2024 06:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 16:17:36.319753
- Title: A survey of recent methods for addressing AI fairness and bias in
biomedicine
- Title(参考訳): バイオメディシンにおけるAIフェアネスとバイアスに対処する最近の手法の検討
- Authors: Yifan Yang, Mingquan Lin, Han Zhao, Yifan Peng, Furong Huang, Zhiyong
Lu
- Abstract要約: 人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
- 参考スコア(独自算出の注目度): 48.46929081146017
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) systems have the potential to revolutionize
clinical practices, including improving diagnostic accuracy and surgical
decision-making, while also reducing costs and manpower. However, it is
important to recognize that these systems may perpetuate social inequities or
demonstrate biases, such as those based on race or gender. Such biases can
occur before, during, or after the development of AI models, making it critical
to understand and address potential biases to enable the accurate and reliable
application of AI models in clinical settings. To mitigate bias concerns during
model development, we surveyed recent publications on different debiasing
methods in the fields of biomedical natural language processing (NLP) or
computer vision (CV). Then we discussed the methods that have been applied in
the biomedical domain to address bias. We performed our literature search on
PubMed, ACM digital library, and IEEE Xplore of relevant articles published
between January 2018 and December 2023 using multiple combinations of keywords.
We then filtered the result of 10,041 articles automatically with loose
constraints, and manually inspected the abstracts of the remaining 890 articles
to identify the 55 articles included in this review. Additional articles in the
references are also included in this review. We discuss each method and compare
its strengths and weaknesses. Finally, we review other potential methods from
the general domain that could be applied to biomedicine to address bias and
improve fairness.The bias of AIs in biomedicine can originate from multiple
sources. Existing debiasing methods that focus on algorithms can be categorized
into distributional or algorithmic.
- Abstract(参考訳): 人工知能(AI)システムは、診断精度と外科的意思決定を改善するとともに、コストと人力を削減するなど、臨床プラクティスに革命をもたらす可能性がある。
しかし、これらのシステムは、人種や性別に基づくような社会的不平等を持続させるか、偏見を示すことが重要である。
このようなバイアスは、AIモデルの開発の前、中、または後に起こり、潜在的なバイアスを理解し、対処することが重要であり、臨床環境でAIモデルの正確かつ信頼性の高い適用を可能にする。
モデル開発におけるバイアスの懸念を軽減するため,バイオメディカル自然言語処理(NLP)やコンピュータビジョン(CV)の分野における様々なデバイアス法に関する最近の論文を調査した。
次に, バイアスに対処するために生体医学領域で適用された手法について検討した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
次に,10,041記事の結果をゆるい制約で自動的にフィルタリングし,残りの890記事の要約を手作業で検査し,55記事の識別を行った。
参考文献への追加記事もこのレビューに含まれている。
それぞれの方法について議論し、その長所と短所を比較する。
最後に、バイオメディシンのバイアスに対処し、公平性を改善するために、バイオメディシンに応用できる一般的な領域からの他の潜在的な方法についてレビューする。
アルゴリズムにフォーカスする既存のデバイアス法は、分散的あるいはアルゴリズム的に分類される。
関連論文リスト
- AI in radiological imaging of soft-tissue and bone tumours: a systematic review evaluating against CLAIM and FUTURE-AI guidelines [1.5332408886895255]
軟部腫瘍と骨腫瘍 (STBT) は稀で, 診断に難渋する病変であり, 様々な臨床症状と治療のアプローチがある。
本稿では,これらの腫瘍の診断と予後のための放射線画像を用いた人工知能(AI)法の概要について概説する。
論文 参考訳(メタデータ) (2024-08-22T15:31:48Z) - Autonomous Artificial Intelligence Agents for Clinical Decision Making in Oncology [0.6397820821509177]
本稿では,大規模言語モデル(LLM)を中心的推論エンジンとして活用する,マルチモーダル医療用AIの代替手法を提案する。
このエンジンは、医療用AIツールのセットを自律的に調整し、デプロイする。
適切なツール(97%)、正しい結論(93.6%)、完全(94%)、個人患者に有用な推奨(89.2%)を提示する能力が高いことを示す。
論文 参考訳(メタデータ) (2024-04-06T15:50:19Z) - Detecting algorithmic bias in medical-AI models using trees [7.939586935057782]
本稿では,医療AI意思決定支援システムにおけるアルゴリズムバイアスの領域を検出するための革新的な枠組みを提案する。
本手法は,医学・AIモデルにおける潜在的なバイアスを,特に敗血症予測の文脈で効果的に同定する。
論文 参考訳(メタデータ) (2023-12-05T18:47:34Z) - Towards objective and systematic evaluation of bias in artificial intelligence for medical imaging [2.0890189482817165]
医療画像におけるバイアスがAIモデルに与える影響を調査するための新しい分析フレームワークを提案する。
医用画像AIの偏りを評価するために, サイリコ試験の制御を行うためのこのフレームワークを開発し, テストした。
論文 参考訳(メタデータ) (2023-11-03T01:37:28Z) - Unmasking Bias in AI: A Systematic Review of Bias Detection and Mitigation Strategies in Electronic Health Record-based Models [6.300835344100545]
人工知能を電子健康記録と共に活用することは、医療を改善する変革の可能性を秘めている。
しかし、医療格差を悪化させるAIのバイアスに対処することは見過ごせない。
本研究では,EHRデータを用いたAIモデルにおいて,多様なバイアスを検出・緩和する手法について検討する。
論文 参考訳(メタデータ) (2023-10-30T18:29:15Z) - BiomedGPT: A Generalist Vision-Language Foundation Model for Diverse Biomedical Tasks [68.39821375903591]
汎用AIは、さまざまなデータ型を解釈する汎用性のために、制限に対処する可能性を秘めている。
本稿では,最初のオープンソースかつ軽量な視覚言語基盤モデルであるBiomedGPTを提案する。
論文 参考訳(メタデータ) (2023-05-26T17:14:43Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Domain-Specific Pretraining for Vertical Search: Case Study on
Biomedical Literature [67.4680600632232]
自己教師型学習は、アノテーションのボトルネックを克服するための有望な方向として現れました。
本稿では,ドメイン固有の事前学習に基づく垂直探索手法を提案する。
我々のシステムはPubMed上で何千万もの記事にスケールでき、Microsoft Biomedical Searchとしてデプロイされている。
論文 参考訳(メタデータ) (2021-06-25T01:02:55Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。