論文の概要: Does "AI" stand for augmenting inequality in the era of covid-19
healthcare?
- arxiv url: http://arxiv.org/abs/2105.07844v1
- Date: Fri, 30 Apr 2021 17:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 08:02:05.094368
- Title: Does "AI" stand for augmenting inequality in the era of covid-19
healthcare?
- Title(参考訳): AIとは、コビッド・ヘルスの時代における不平等の増大を意味するか?
- Authors: David Leslie, Anjali Mazumder, Aidan Peppin, Maria Wolters and Alexa
Hagerty
- Abstract要約: 我々は、AI技術の使用が、弱体化、低表現、および脆弱なグループに対するコビッド-19の異質な効果を悪化させる恐れがあることを強調します。
我々は、AIのコビッド-19に関連する不平等に対する複合効果を軽減するために、意思決定者、技術開発者、および保健当局者は、AIプロセスのあらゆる段階で潜在的なバイアスと不平等を考慮する必要があると結論付けました。
- 参考スコア(独自算出の注目度): 0.7962205145083434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Among the most damaging characteristics of the covid-19 pandemic has been its
disproportionate effect on disadvantaged communities. As the outbreak has
spread globally, factors such as systemic racism, marginalisation, and
structural inequality have created path dependencies that have led to poor
health outcomes. These social determinants of infectious disease and
vulnerability to disaster have converged to affect already disadvantaged
communities with higher levels of economic instability, disease exposure,
infection severity, and death. Artificial intelligence (AI) technologies are an
important part of the health informatics toolkit used to fight contagious
disease. AI is well known, however, to be susceptible to algorithmic biases
that can entrench and augment existing inequality. Uncritically deploying AI in
the fight against covid-19 thus risks amplifying the pandemic's adverse effects
on vulnerable groups, exacerbating health inequity. In this paper, we claim
that AI systems can introduce or reflect bias and discrimination in three ways:
in patterns of health discrimination that become entrenched in datasets, in
data representativeness, and in human choices made during the design,
development, and deployment of these systems. We highlight how the use of AI
technologies threaten to exacerbate the disparate effect of covid-19 on
marginalised, under-represented, and vulnerable groups, particularly black,
Asian, and other minoritised ethnic people, older populations, and those of
lower socioeconomic status. We conclude that, to mitigate the compounding
effects of AI on inequalities associated with covid-19, decision makers,
technology developers, and health officials must account for the potential
biases and inequities at all stages of the AI process.
- Abstract(参考訳): 新型コロナウイルスのパンデミックの最も被害の大きい特徴は、不適切な地域社会に対する不均等な影響である。
アウトブレイクが世界中に広まるにつれて、システム的人種差別、限界化、構造的不平等といった要因が経路依存を生み出し、健康状態が悪化する。
これらの感染症や災害の危険性の社会的決定要因は、経済的不安定性、病気の曝露、感染の重症度、死亡のレベルが高い既に不利な地域社会に影響を与えている。
人工知能(AI)技術は、伝染病と闘うための健康情報ツールキットの重要な部分である。
しかし、aiは既存の不平等を誘引し強化できるアルゴリズムバイアスに影響を受けやすいことがよく知られている。
新型コロナウイルスとの戦いにおいてAIを非クリティカルに展開することで、パンデミックが脆弱なグループに悪影響を及ぼすリスクが増大し、健康上の不平等が悪化する。
本稿では、AIシステムは、データセットに定着する健康差別のパターン、データ代表性、およびこれらのシステムの設計、開発、展開中に行われる人間の選択の3つの方法でバイアスと差別を導入または反映できると主張している。
特に、黒人、アジア人、その他の少数民族、高齢者、社会経済的地位の低い人々に対する、コビッド19の異なる影響を悪化させるようなAI技術の使用について強調する。
我々は、AIがコビッド-19に関連する不平等に対する複合効果を軽減するために、意思決定者、技術開発者、健康担当者はAIプロセスのあらゆる段階で潜在的なバイアスと不平等を考慮しなければならないと結論付けている。
関連論文リスト
- Exploiting the Margin: How Capitalism Fuels AI at the Expense of
Minoritized Groups [0.0]
本稿では、資本主義、人種抑圧、人工知能(AI)の複雑なネクサスについて考察する。
この研究は、資本主義的な実践を通じて、地域社会の歴史的搾取を追跡することによって、AI技術がどのように社会的偏見を反映し、増幅しているかを示す。
この記事では、AI開発に責任を負うための継続的な取り組みが紹介されている。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - The impact of generative artificial intelligence on socioeconomic
inequalities and policy making [1.527764520858833]
生成的人工知能は、既存の社会経済的不平等を悪化させ、改善する可能性がある。
この記事では、生成AIが4つの重要な領域(仕事、教育、健康、情報)に与える影響について、学際的な概要を提供する。
論文 参考訳(メタデータ) (2023-12-16T10:37:22Z) - Social AI and the Challenges of the Human-AI Ecosystem [60.26761762025781]
社会AIにおける主要なオープンな質問について論じ、技術的および科学的課題を概説する。
我々は,複雑システム,ネットワーク科学,AIの交差点にソーシャルAIの基礎を構築することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - A Survey on Applications of Artificial Intelligence in Fighting Against
COVID-19 [75.84689958489724]
SARS-CoV-2ウイルスによる新型コロナウイルスのパンデミックは世界中で急速に広がり、世界的な感染拡大につながっている。
新型コロナウイルス対策の強力なツールとして、人工知能(AI)技術はこのパンデミックに対抗するために広く利用されている。
この調査では、新型コロナウイルス対策におけるAIテクノロジの既存および潜在的応用に関する包括的見解を、医療とAI研究者に提示する。
論文 参考訳(メタデータ) (2020-07-04T22:48:15Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - A Deep Q-learning/genetic Algorithms Based Novel Methodology For
Optimizing Covid-19 Pandemic Government Actions [63.669642197519934]
我々はSEIR疫学モデルを用いて、人口の時間とともにウイルスウイルスの進化を表現している。
報酬システムにより、アクションのシーケンス(統合、自己同化、二メートル距離、制限を取らない)を評価する。
どちらの意味でも、パンデミックの悪影響を抑えるために政府が取るべき行動を発見する上で、我々の方法論が有効な手段であることを実証する。
論文 参考訳(メタデータ) (2020-05-15T17:17:45Z) - The Risk to Population Health Equity Posed by Automated Decision
Systems: A Narrative Review [0.0]
自動決定は個人や人口の健康に重大な影響を及ぼす。
健康での使用による問題はすでに報告されている。
健康における自動意思決定システムの使用は、既存の人口健康の不平等を悪化させる大きなリスクがある。
論文 参考訳(メタデータ) (2020-01-18T06:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。