論文の概要: Fairness via AI: Bias Reduction in Medical Information
- arxiv url: http://arxiv.org/abs/2109.02202v1
- Date: Mon, 6 Sep 2021 01:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-08 02:55:05.115563
- Title: Fairness via AI: Bias Reduction in Medical Information
- Title(参考訳): AIによる公正:医療情報のバイアス低減
- Authors: Shiri Dori-Hacohen, Roberto Montenegro, Fabricio Murai, Scott A. Hale,
Keen Sung, Michela Blain, Jennifer Edwards-Johnson
- Abstract要約: 本稿では,医学教育,社会学,反人種差別主義の洞察に触発された,AIによるフェアネスの新たな枠組みを提案する。
我々はAIを用いて、社会の少数派を不均等に傷つける偏見、有害、および/または偽の健康情報を研究、検出、緩和することを提案する。
- 参考スコア(独自算出の注目度): 3.254836540242099
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Most Fairness in AI research focuses on exposing biases in AI systems. A
broader lens on fairness reveals that AI can serve a greater aspiration:
rooting out societal inequities from their source. Specifically, we focus on
inequities in health information, and aim to reduce bias in that domain using
AI. The AI algorithms under the hood of search engines and social media, many
of which are based on recommender systems, have an outsized impact on the
quality of medical and health information online. Therefore, embedding bias
detection and reduction into these recommender systems serving up medical and
health content online could have an outsized positive impact on patient
outcomes and wellbeing.
In this position paper, we offer the following contributions: (1) we propose
a novel framework of Fairness via AI, inspired by insights from medical
education, sociology and antiracism; (2) we define a new term, bisinformation,
which is related to, but distinct from, misinformation, and encourage
researchers to study it; (3) we propose using AI to study, detect and mitigate
biased, harmful, and/or false health information that disproportionately hurts
minority groups in society; and (4) we suggest several pillars and pose several
open problems in order to seed inquiry in this new space. While part (3) of
this work specifically focuses on the health domain, the fundamental computer
science advances and contributions stemming from research efforts in bias
reduction and Fairness via AI have broad implications in all areas of society.
- Abstract(参考訳): AI研究の最も公平性は、AIシステムのバイアスを露呈することに焦点を当てている。
公平性に関するより広いレンズは、AIがより大きな願望に役立てることを明らかにしている。
具体的には、健康情報の不平等に焦点を当て、AIを用いてその領域のバイアスを減らすことを目的としている。
検索エンジンやソーシャルメディアの傘下にあるAIアルゴリズムは、リコメンデーターシステムに基づくものが多く、オンラインの医療情報や健康情報の品質に大きな影響を与えている。
したがって、オンラインの医療・健康コンテンツを提供するレコメンデーターシステムにバイアス検出と還元を組み込むことは、患者の結果と幸福感に大きな影響を与える可能性がある。
In this position paper, we offer the following contributions: (1) we propose a novel framework of Fairness via AI, inspired by insights from medical education, sociology and antiracism; (2) we define a new term, bisinformation, which is related to, but distinct from, misinformation, and encourage researchers to study it; (3) we propose using AI to study, detect and mitigate biased, harmful, and/or false health information that disproportionately hurts minority groups in society; and (4) we suggest several pillars and pose several open problems in order to seed inquiry in this new space.
この研究のパート3は、特に健康分野に焦点を当てているが、偏見の低減とAIによる公正性の研究から生じる基礎的なコンピュータサイエンスの進歩と貢献は、社会のあらゆる領域に幅広い影響を及ぼす。
関連論文リスト
- Open Challenges on Fairness of Artificial Intelligence in Medical Imaging Applications [3.8236840661885485]
この章ではまず、データ収集、モデルトレーニング、臨床展開など、さまざまなバイアス源について論じている。
そして、研究者や実践者からの注意を必要とすると信じているオープンな課題について議論する。
論文 参考訳(メタデータ) (2024-07-24T02:41:19Z) - Towards Clinical AI Fairness: Filling Gaps in the Puzzle [15.543248260582217]
このレビューでは、医療データと提供されたAIフェアネスソリューションの両方に関して、いくつかの欠陥を体系的に指摘する。
AI技術がますます活用されている多くの医療分野において、AIフェアネスの研究の欠如を強調している。
これらのギャップを埋めるために、我々のレビューは医療研究コミュニティとAI研究コミュニティの両方にとって実行可能な戦略を前進させます。
論文 参考訳(メタデータ) (2024-05-28T07:42:55Z) - A survey of recent methods for addressing AI fairness and bias in
biomedicine [48.46929081146017]
人工知能システムは、人種や性別に基づくような社会的不平等を永続するか、偏見を示すことができる。
バイオメディカル自然言語処理 (NLP) やコンピュータビジョン (CV) の分野での様々な脱バイアス法に関する最近の論文を調査した。
我々は,2018年1月から2023年12月にかけて,複数のキーワードの組み合わせを用いて,PubMed,ACMデジタルライブラリ,IEEE Xploreに関する文献検索を行った。
バイオメディシンに応用可能な一般領域からの他の方法について検討し, バイアスに対処し, 公平性を向上する方法について検討した。
論文 参考訳(メタデータ) (2024-02-13T06:38:46Z) - Ensuring Trustworthy Medical Artificial Intelligence through Ethical and
Philosophical Principles [4.705984758887425]
AIベースのコンピュータ支援診断と治療ツールは、臨床レベルを合わせるか、あるいは臨床専門家を上回ることで、医療を民主化することができる。
このようなAIツールの民主化は、ケアコストを削減し、リソース割り当てを最適化し、ケアの質を向上させる。
AIをヘルスケアに統合することは、バイアス、透明性、自律性、責任、説明責任など、いくつかの倫理的および哲学的な懸念を提起する。
論文 参考訳(メタデータ) (2023-04-23T04:14:18Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Assessing the Severity of Health States based on Social Media Posts [62.52087340582502]
ユーザの健康状態の重症度を評価するために,テキストコンテンツとコンテキスト情報の両方をモデル化する多視点学習フレームワークを提案する。
多様なNLUビューは、ユーザの健康を評価するために、タスクと個々の疾患の両方に効果を示す。
論文 参考訳(メタデータ) (2020-09-21T03:45:14Z) - The Threats of Artificial Intelligence Scale (TAI). Development,
Measurement and Test Over Three Application Domains [0.0]
いくつかの世論調査は、自律ロボットと人工知能(FARAI)の公衆の恐怖を頻繁に問う
我々は、AIシステムの4つの機能クラスを考慮し、AIアプリケーションの様々な領域に適用可能な、AIの脅威知覚を測定するためのきめ細かいスケールを提案する。
データは提案されたAIのThreats of AI(TAI)スケールの次元構造と、インジケータの内部一貫性と因子的妥当性をサポートする。
論文 参考訳(メタデータ) (2020-06-12T14:15:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。