論文の概要: Alternative models: Critical examination of disability definitions in
the development of artificial intelligence technologies
- arxiv url: http://arxiv.org/abs/2206.08287v1
- Date: Thu, 16 Jun 2022 16:41:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 19:37:25.913904
- Title: Alternative models: Critical examination of disability definitions in
the development of artificial intelligence technologies
- Title(参考訳): 代替モデル:人工知能技術の開発における障害定義の批判的考察
- Authors: Denis Newman-Griffis, Jessica Sage Rauchberg, Rahaf Alharbi, Louise
Hickman, Harry Hochheiser
- Abstract要約: 本稿では、障害レンズを用いてAIデータ分析技術を批判的に検証するためのフレームワークを提案する。
障害の概念モデルとして,医療モデル,社会モデル,関係モデルについて考察する。
これらのモデルで設計されたAI技術は、互いに互換性がなく矛盾するほど大きく異なることを示す。
- 参考スコア(独自算出の注目度): 6.9884176767901005
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disabled people are subject to a wide variety of complex decision-making
processes in diverse areas such as healthcare, employment, and government
policy. These contexts, which are already often opaque to the people they
affect and lack adequate representation of disabled perspectives, are rapidly
adopting artificial intelligence (AI) technologies for data analytics to inform
decision making, creating an increased risk of harm due to inappropriate or
inequitable algorithms. This article presents a framework for critically
examining AI data analytics technologies through a disability lens and
investigates how the definition of disability chosen by the designers of an AI
technology affects its impact on disabled subjects of analysis. We consider
three conceptual models of disability: the medical model, the social model, and
the relational model; and show how AI technologies designed under each of these
models differ so significantly as to be incompatible with and contradictory to
one another. Through a discussion of common use cases for AI analytics in
healthcare and government disability benefits, we illustrate specific
considerations and decision points in the technology design process that affect
power dynamics and inclusion in these settings and help determine their
orientation towards marginalisation or support. The framework we present can
serve as a foundation for in-depth critical examination of AI technologies and
the development of a design praxis for disability-related AI analytics.
- Abstract(参考訳): 障害者は、医療、雇用、政府の政策など様々な分野において、様々な複雑な意思決定プロセスに直面している。
これらのコンテキストは、すでに影響を受けた人々にとって不透明で、障害のある視点の適切な表現を欠いていることが多いが、データ分析に人工知能(AI)技術を採用して意思決定を通知し、不適切なアルゴリズムや不適切なアルゴリズムによる害のリスクを増大させている。
本稿では、障害レンズを介してAIデータ分析技術を批判的に調査するフレームワークを提案し、AI技術のデザイナが選択した障害の定義が障害者の分析対象に与える影響について検討する。
我々は,障害の3つの概念モデル,すなわち医療モデル,社会モデル,関係モデルを検討した。
医療および政府の障害給付におけるai分析の一般的なユースケースに関する議論を通じて、これらの設定におけるパワーダイナミクスとインクルージョンに影響を与える技術設計プロセスにおける具体的な考慮と決定ポイントを説明し、限界化やサポートへの方向性を決定するのに役立つ。
現在提案されているフレームワークは、AI技術の詳細な批判的検証と、障害関連AI分析のためのデザイン実践の開発の基礎となる。
関連論文リスト
- Revisiting Technical Bias Mitigation Strategies [0.11510009152620666]
人工知能(AI)コミュニティにおける偏見を緩和し、公平性を高める努力は、主に技術的な解決策に焦点を当てている。
多くのレビューがAIのバイアスに対処しているが、このレビューは医療設定における技術的ソリューションの実践的限界に特化している。
医療・バイオメディカル応用に焦点をあてた実証的研究により,それぞれの限界について解説する。
論文 参考訳(メタデータ) (2024-10-22T21:17:19Z) - Artificial intelligence techniques in inherited retinal diseases: A review [19.107474958408847]
遺伝性網膜疾患(英: InheritedRetinal disease、IRD)は、進行性視力低下を引き起こす多様な遺伝性疾患群であり、労働年齢層の視覚障害の主要な原因である。
人工知能(AI)の最近の進歩は、これらの課題に対する有望な解決策を提供する。
このレビューは既存の研究を統合し、ギャップを特定し、IRDの診断と管理におけるAIの可能性の概要を提供する。
論文 参考訳(メタデータ) (2024-10-10T03:14:51Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - A Survey of Accessible Explainable Artificial Intelligence Research [0.0]
本稿では、説明可能な人工知能(XAI)のアクセシビリティに関する研究について、系統的な文献レビューを行う。
提案手法は,XAIとアクセシビリティーの交差点を捉えるために,いくつかの学術データベースを検索語で検索することを含む。
我々は、デジタル包摂とアクセシビリティを促進するために、XAI開発に障害コミュニティを含めることの重要性を強調している。
論文 参考訳(メタデータ) (2024-07-02T21:09:46Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - On Heuristic Models, Assumptions, and Parameters [0.76146285961466]
我々は、コンピューティングの社会的影響は、不明瞭な技術的注意事項、選択、および資格者に依存することができると論じている。
これらの選択と修飾子をエンコードするために用いられるオブジェクトの3つのクラス、すなわちモデル、仮定、パラメータを記述する。
我々は、これらの物体がコンピュータの包括的分析に有害である6つの理由を提起し、研究者が科学的研究を説明するのに考慮すべきであると主張している。
論文 参考訳(メタデータ) (2022-01-19T04:32:11Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Intelligent interactive technologies for mental health and well-being [70.1586005070678]
本論文では,既存ソリューションの将来展望を批判的に分析する。
特に、私たちは。
メンタルヘルスのための技術の概要を説明します。
提案された基準に照らして テクノロジーを批判的に分析する
これらの技術の設計見通しを提供するのです
論文 参考訳(メタデータ) (2021-05-11T19:04:21Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。