論文の概要: Bias Impact Analysis of AI in Consumer Mobile Health Technologies:
Legal, Technical, and Policy
- arxiv url: http://arxiv.org/abs/2209.05440v1
- Date: Mon, 29 Aug 2022 00:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:05:25.903139
- Title: Bias Impact Analysis of AI in Consumer Mobile Health Technologies:
Legal, Technical, and Policy
- Title(参考訳): 消費者モバイルヘルス技術におけるAIのバイアス影響分析:法、技術、政策
- Authors: Kristine Gloria, Nidhi Rastogi, Stevie DeGroff
- Abstract要約: 本研究は,消費者向けモバイルヘルス技術(mHealth)におけるアルゴリズムバイアスの交叉について検討する。
現在のメカニズム – 法的,技術的,あるいは規範 – が,望ましくないバイアスに伴う潜在的なリスクを軽減する上で,どのような効果があるのか,検討する。
我々は、技術者や政策立案者の役割と責任に関する追加のガイダンスを提供し、そのようなシステムが患者に公平な力を与えるようにしなくてはならない。
- 参考スコア(独自算出の注目度): 1.6114012813668934
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Today's large-scale algorithmic and automated deployment of decision-making
systems threatens to exclude marginalized communities. Thus, the emergent
danger comes from the effectiveness and the propensity of such systems to
replicate, reinforce, or amplify harmful existing discriminatory acts.
Algorithmic bias exposes a deeply entrenched encoding of a range of unwanted
biases that can have profound real-world effects that manifest in domains from
employment, to housing, to healthcare. The last decade of research and examples
on these effects further underscores the need to examine any claim of a
value-neutral technology. This work examines the intersection of algorithmic
bias in consumer mobile health technologies (mHealth). We include mHealth, a
term used to describe mobile technology and associated sensors to provide
healthcare solutions through patient journeys. We also include mental and
behavioral health (mental and physiological) as part of our study. Furthermore,
we explore to what extent current mechanisms - legal, technical, and or
normative - help mitigate potential risks associated with unwanted bias in
intelligent systems that make up the mHealth domain. We provide additional
guidance on the role and responsibilities technologists and policymakers have
to ensure that such systems empower patients equitably.
- Abstract(参考訳): 今日の大規模なアルゴリズムと自動意思決定システムの展開は、辺境化コミュニティを除外する恐れがある。
したがって、創発的な危険は、有害な既存の差別行為を複製、強化、増幅するためのシステムの有効性と妥当性から生じる。
アルゴリズムバイアスは、雇用から住宅、医療に至るまで、ドメインに現れる深い現実世界の影響をもたらす、望ましくないバイアスの、深く絡み合ったエンコーディングを露呈する。
これらの効果に関する過去10年間の研究と例は、価値中立性技術の主張を調べる必要性をさらに浮き彫りにした。
本研究では,mhealth(consumer mobile health technologies)におけるアルゴリズムバイアスの交叉について検討する。
mHealthは、モバイル技術と関連するセンサーを表現し、患者の旅行を通じて医療ソリューションを提供する用語です。
また,精神保健・行動保健(精神保健・生理学)も本研究に含まれる。
さらに、mhealthドメインを構成するインテリジェントなシステムにおいて、不要なバイアスに関連する潜在的なリスクを軽減する上で、現在のメカニズム – 法的、技術的、あるいは規範的 – がどの程度有効かを検討する。
我々は、技術者や政策立案者の役割と責任に関する追加ガイダンスを提供し、そのようなシステムが患者に公平な力を与えなければならない。
関連論文リスト
- Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Semantic Technologies in Sensor-Based Personal Health Monitoring
Systems: A Systematic Mapping Study [0.0]
本研究では,センサを用いた個人健康モニタリングシステムにおけるセマンティック技術の利用状況を評価する。
最適かつ効果的な健康モニタリングのために、このようなシステムが克服しなければならない6つの重要な課題が特定される。
この研究は、これらのシステムがこれらの課題に対処する意味技術をどのように組み入れているかを批判的に評価する。
論文 参考訳(メタデータ) (2023-06-07T11:02:35Z) - Mitigating Covertly Unsafe Text within Natural Language Systems [55.26364166702625]
制御されていないシステムは、怪我や致命的な結果につながるレコメンデーションを生成する。
本稿では,身体的危害につながる可能性のあるテキストのタイプを識別し,特に未発見のカテゴリを確立する。
論文 参考訳(メタデータ) (2022-10-17T17:59:49Z) - Fairness via AI: Bias Reduction in Medical Information [3.254836540242099]
本稿では,医学教育,社会学,反人種差別主義の洞察に触発された,AIによるフェアネスの新たな枠組みを提案する。
我々はAIを用いて、社会の少数派を不均等に傷つける偏見、有害、および/または偽の健康情報を研究、検出、緩和することを提案する。
論文 参考訳(メタデータ) (2021-09-06T01:39:48Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Edge Intelligence for Empowering IoT-based Healthcare Systems [42.909808437026136]
この記事では、スマートヘルスケアシステムにおけるAIとともに、エッジインテリジェント技術のメリットを強調します。
スマートヘルスケアシステムにおけるAIとエッジ技術の利用を促進するために、新しいスマートヘルスケアモデルが提案されている。
論文 参考訳(メタデータ) (2021-03-22T19:35:06Z) - Smart Speakers, the Next Frontier in Computational Health [0.0]
スマートスピーカーコンピューティングシステムは、健康研究の新たな分野を触媒する可能性を持つ、いくつかのユニークなアドバンテージを持っている。
これらのスマートコンピューティングシステムの近年の増加と普及は、慢性疾患管理の強化に大きな可能性を秘めている。
スマートスピーカーが健康を改善するために人と対話する方法には3つの幅広いメカニズムがある。
論文 参考訳(メタデータ) (2021-03-06T23:13:02Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - The Risk to Population Health Equity Posed by Automated Decision
Systems: A Narrative Review [0.0]
自動決定は個人や人口の健康に重大な影響を及ぼす。
健康での使用による問題はすでに報告されている。
健康における自動意思決定システムの使用は、既存の人口健康の不平等を悪化させる大きなリスクがある。
論文 参考訳(メタデータ) (2020-01-18T06:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。