論文の概要: Disability data futures: Achievable imaginaries for AI and disability data justice
- arxiv url: http://arxiv.org/abs/2411.03885v1
- Date: Wed, 06 Nov 2024 13:04:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:22:51.411364
- Title: Disability data futures: Achievable imaginaries for AI and disability data justice
- Title(参考訳): 障害データの未来:AIと障害データ正義のための達成可能な想像力
- Authors: Denis Newman-Griffis, Bonnielin Swenor, Rupa Valdez, Gillian Mason,
- Abstract要約: データとは、個人のアイデンティティが現代の状態やシステムでフィルタリングされる媒体である。
データとAIの歴史は、しばしば障害排除、抑圧、障害経験の削減の1つです。
この章は、人工知能と障害データ正義のための達成可能な想像力を記述するために、4人の学者と障害擁護者を集めている。
- 参考スコア(独自算出の注目度): 2.0549239024359762
- License:
- Abstract: Data are the medium through which individuals' identities and experiences are filtered in contemporary states and systems, and AI is increasingly the layer mediating between people, data, and decisions. The history of data and AI is often one of disability exclusion, oppression, and the reduction of disabled experience; left unchallenged, the current proliferation of AI and data systems thus risks further automating ableism behind the veneer of algorithmic neutrality. However, exclusionary histories do not preclude inclusive futures, and disability-led visions can chart new paths for collective action to achieve futures founded in disability justice. This chapter brings together four academics and disability advocates working at the nexus of disability, data, and AI, to describe achievable imaginaries for artificial intelligence and disability data justice. Reflecting diverse contexts, disciplinary perspectives, and personal experiences, we draw out the shape, actors, and goals of imagined future systems where data and AI support movement towards disability justice.
- Abstract(参考訳): データとは、個人のアイデンティティと経験が現代国家やシステムでフィルタリングされる媒体であり、AIはますます人、データ、決定を仲介する層になっている。
データとAIの歴史は、しばしば障害排除、抑圧、障害経験の減少の1つであり、左の無意味さ、現在のAIとデータシステムの増殖により、アルゴリズム中立性の背後にある能力主義をさらに自動化するリスクがある。
しかし、排他的歴史は包括的未来を妨げず、障害者主導のビジョンは障害正義で確立された未来を達成するための集団行動のための新しい経路をグラフ化することができる。
この章は、人工知能と障害データ正義のための達成可能な想像力を記述するために、障害、データ、AIのネクサスで働く4人の学者と障害擁護者を集めます。
多様な文脈、学際的視点、個人的経験を反映して、我々は、データとAIが障害正義に向けた運動を支援する将来的なシステムの形、アクター、および目標を描き出す。
関連論文リスト
- A Democratic Platform for Engaging with Disabled Community in Generative
AI Development [0.9065034043031664]
ジェネレーティブなAIツールの影響と人気が高まり、私たちは障害のあるコミュニティにおけるそれらの関連性を調べるようになった。
本ワークショップでは,生産型AIシステムを構築しながら,障害者コミュニティを巻き込むプラットフォームを提案する。
論文 参考訳(メタデータ) (2023-09-26T13:30:57Z) - Towards FATE in AI for Social Media and Healthcare: A Systematic Review [0.0]
この調査は、AIの文脈における公正性、説明責任、透明性、倫理(FATE)の概念に焦点を当てている。
統計的および交差点的公正性は,ソーシャルメディアプラットフォーム上での医療の公平性を支持することが判明した。
シミュレーション、データ分析、自動システムといったソリューションは広く使われているが、その効果は様々である。
論文 参考訳(メタデータ) (2023-06-05T17:25:42Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Data Representativeness in Accessibility Datasets: A Meta-Analysis [7.6597163467929805]
障害のある人と高齢者が作成したデータセットをレビューする。
アクセシビリティデータセットは様々な年齢を表すが、性別と人種の差がある。
われわれの努力が、AIに注入されたシステムに、余分なコミュニティをもっと取り入れる可能性の空間を広げることを願っている。
論文 参考訳(メタデータ) (2022-07-16T23:32:19Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - How Could Equality and Data Protection Law Shape AI Fairness for People
with Disabilities? [14.694420183754332]
本稿では,障害者に対する「AIフェアネス」の概念を,データ保護と平等法の観点から考察する。
我々は、差別法とデータ保護法が障害に関して適用される方法が異なるため、AIフェアネスに独特なアプローチが必要であると主張している。
論文 参考訳(メタデータ) (2021-07-12T19:41:01Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。