論文の概要: Bias Impact Analysis of AI in Consumer Mobile Health Technologies:
Legal, Technical, and Policy
- arxiv url: http://arxiv.org/abs/2209.05440v1
- Date: Mon, 29 Aug 2022 00:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:05:25.903139
- Title: Bias Impact Analysis of AI in Consumer Mobile Health Technologies:
Legal, Technical, and Policy
- Title(参考訳): 消費者モバイルヘルス技術におけるAIのバイアス影響分析:法、技術、政策
- Authors: Kristine Gloria, Nidhi Rastogi, Stevie DeGroff
- Abstract要約: 本研究は,消費者向けモバイルヘルス技術(mHealth)におけるアルゴリズムバイアスの交叉について検討する。
現在のメカニズム – 法的,技術的,あるいは規範 – が,望ましくないバイアスに伴う潜在的なリスクを軽減する上で,どのような効果があるのか,検討する。
我々は、技術者や政策立案者の役割と責任に関する追加のガイダンスを提供し、そのようなシステムが患者に公平な力を与えるようにしなくてはならない。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Today's large-scale algorithmic and automated deployment of decision-making
systems threatens to exclude marginalized communities. Thus, the emergent
danger comes from the effectiveness and the propensity of such systems to
replicate, reinforce, or amplify harmful existing discriminatory acts.
Algorithmic bias exposes a deeply entrenched encoding of a range of unwanted
biases that can have profound real-world effects that manifest in domains from
employment, to housing, to healthcare. The last decade of research and examples
on these effects further underscores the need to examine any claim of a
value-neutral technology. This work examines the intersection of algorithmic
bias in consumer mobile health technologies (mHealth). We include mHealth, a
term used to describe mobile technology and associated sensors to provide
healthcare solutions through patient journeys. We also include mental and
behavioral health (mental and physiological) as part of our study. Furthermore,
we explore to what extent current mechanisms - legal, technical, and or
normative - help mitigate potential risks associated with unwanted bias in
intelligent systems that make up the mHealth domain. We provide additional
guidance on the role and responsibilities technologists and policymakers have
to ensure that such systems empower patients equitably.
- Abstract(参考訳): 今日の大規模なアルゴリズムと自動意思決定システムの展開は、辺境化コミュニティを除外する恐れがある。
したがって、創発的な危険は、有害な既存の差別行為を複製、強化、増幅するためのシステムの有効性と妥当性から生じる。
アルゴリズムバイアスは、雇用から住宅、医療に至るまで、ドメインに現れる深い現実世界の影響をもたらす、望ましくないバイアスの、深く絡み合ったエンコーディングを露呈する。
これらの効果に関する過去10年間の研究と例は、価値中立性技術の主張を調べる必要性をさらに浮き彫りにした。
本研究では,mhealth(consumer mobile health technologies)におけるアルゴリズムバイアスの交叉について検討する。
mHealthは、モバイル技術と関連するセンサーを表現し、患者の旅行を通じて医療ソリューションを提供する用語です。
また,精神保健・行動保健(精神保健・生理学)も本研究に含まれる。
さらに、mhealthドメインを構成するインテリジェントなシステムにおいて、不要なバイアスに関連する潜在的なリスクを軽減する上で、現在のメカニズム – 法的、技術的、あるいは規範的 – がどの程度有効かを検討する。
我々は、技術者や政策立案者の役割と責任に関する追加ガイダンスを提供し、そのようなシステムが患者に公平な力を与えなければならない。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - SoK: Security and Privacy Risks of Medical AI [14.592921477833848]
テクノロジーと医療の統合は、人工知能と機械学習を利用したソフトウェアシステムが、医療製品やサービスの不可欠なコンポーネントとなった新しい時代に幕を閉じた。
本稿では、医療におけるAI/MLアプリケーションによるセキュリティとプライバシの脅威について検討する。
論文 参考訳(メタデータ) (2024-09-11T16:59:58Z) - AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - Applications of Generative AI in Healthcare: algorithmic, ethical, legal and societal considerations [0.0]
生成AIは、医療画像とテキスト分析を急速に変換している。
本稿では,正確性,インフォームドコンセント,データプライバシ,アルゴリズム制限の問題について検討する。
我々は、医療における生成AIの倫理的かつ責任ある実装のロードマップを策定することを目指している。
論文 参考訳(メタデータ) (2024-06-15T13:28:07Z) - Mitigating Covertly Unsafe Text within Natural Language Systems [55.26364166702625]
制御されていないシステムは、怪我や致命的な結果につながるレコメンデーションを生成する。
本稿では,身体的危害につながる可能性のあるテキストのタイプを識別し,特に未発見のカテゴリを確立する。
論文 参考訳(メタデータ) (2022-10-17T17:59:49Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Edge Intelligence for Empowering IoT-based Healthcare Systems [42.909808437026136]
この記事では、スマートヘルスケアシステムにおけるAIとともに、エッジインテリジェント技術のメリットを強調します。
スマートヘルスケアシステムにおけるAIとエッジ技術の利用を促進するために、新しいスマートヘルスケアモデルが提案されている。
論文 参考訳(メタデータ) (2021-03-22T19:35:06Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - The Risk to Population Health Equity Posed by Automated Decision
Systems: A Narrative Review [0.0]
自動決定は個人や人口の健康に重大な影響を及ぼす。
健康での使用による問題はすでに報告されている。
健康における自動意思決定システムの使用は、既存の人口健康の不平等を悪化させる大きなリスクがある。
論文 参考訳(メタデータ) (2020-01-18T06:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。