論文の概要: "Accessibility people, you go work on that thing of yours over there": Addressing Disability Inclusion in AI Product Organizations
- arxiv url: http://arxiv.org/abs/2508.16607v1
- Date: Tue, 12 Aug 2025 16:08:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-31 21:54:20.574932
- Title: "Accessibility people, you go work on that thing of yours over there": Addressing Disability Inclusion in AI Product Organizations
- Title(参考訳): 「アクセシビリティ・ピープル、あなたはそこのあなたのものに取り組む」:AIプロダクト・オーガナイゼーションにおける障害の包摂について
- Authors: Sanika Moharana, Cynthia L. Bennett, Erin Buehler, Michael Madaio, Vinita Tibdewal, Shaun K. Kane,
- Abstract要約: 我々は、25人のAI実践者とのインタビューで、彼らの作業プロセスとアーティファクトが障害のあるエンドユーザに与える影響についてインタビューした。
私たちは、責任あるAIとアクセシビリティのプラクティスの交差点で問題をトリアージする際に、実践者が摩擦を経験したことに気づきました。
我々は、AIのエンドユーザーとして障害のある人々を支援するために、新しいリソースとプロセスの変更を提案する。
- 参考スコア(独自算出の注目度): 15.672286378805234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid emergence of generative AI has changed the way that technology is designed, constructed, maintained, and evaluated. Decisions made when creating AI-powered systems may impact some users disproportionately, such as people with disabilities. In this paper, we report on an interview study with 25 AI practitioners across multiple roles (engineering, research, UX, and responsible AI) about how their work processes and artifacts may impact end users with disabilities. We found that practitioners experienced friction when triaging problems at the intersection of responsible AI and accessibility practices, navigated contradictions between accessibility and responsible AI guidelines, identified gaps in data about users with disabilities, and gathered support for addressing the needs of disabled stakeholders by leveraging informal volunteer and community groups within their company. Based on these findings, we offer suggestions for new resources and process changes to better support people with disabilities as end users of AI.
- Abstract(参考訳): 生成AIの急速な出現は、テクノロジーの設計、構築、維持、評価の方法を変えた。
AIを利用したシステムを開発する際の決定は、障害のある人など一部のユーザーに不均等に影響を及ぼす可能性がある。
本稿では、複数の役割(エンジニアリング、研究、UX、責任あるAI)にわたる25人のAI実践者とのインタビューで、彼らの作業プロセスとアーティファクトが障害のあるエンドユーザに与える影響についてインタビューする。
私たちは、責任あるAIとアクセシビリティのプラクティスの交差点で問題をトリアージする際に、実践者が摩擦を経験し、アクセシビリティと責任あるAIガイドラインの矛盾をナビゲートし、障害のあるユーザに関するデータのギャップを特定し、会社内の非公式のボランティアとコミュニティグループを活用して、障害者の利害関係者のニーズに対処するためのサポートを集めました。
これらの知見に基づいて、AIのエンドユーザーとして障害のある人々を支援するために、新たなリソースやプロセスの変更を提案する。
関連論文リスト
- Augmenting Human Cognition With Generative AI: Lessons From AI-Assisted Decision-Making [2.1680671785663654]
AIによる意思決定と生成AIの両方において、一般的なアプローチは、AIが生成するエンドツーエンドソリューションをユーザに提案することである。
あるいは、AIツールがよりインクリメンタルなサポートを提供して、ユーザーがタスクを自分で解くのを助けることもできる。
論文 参考訳(メタデータ) (2025-04-04T06:40:03Z) - Accessibility Considerations in the Development of an AI Action Plan [10.467658828071057]
我々はアクセシビリティがいくつかの重要なドメインで表現される必要があると主張している。
AIベースのアクセシビリティ技術によって収集されたデータを含む、データセキュリティとプライバシとプライバシのリスク。
障害固有のAIリスクとバイアス(障害者によるAI使用中)と間接バイアス(障害者に関連するデータでAIが他の誰かによって使用される場合)の両方を含む。
論文 参考訳(メタデータ) (2025-03-14T21:57:23Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Knowing About Knowing: An Illusion of Human Competence Can Hinder
Appropriate Reliance on AI Systems [13.484359389266864]
本稿では、Dunning-Kruger Effect(DKE)がAIシステムへの適切な依存を妨げているかどうかを論じる。
DKEは、能力の低い個人が自身のスキルやパフォーマンスを過大評価しているため、メタ認知バイアスである。
その結果、パフォーマンスを過大評価する参加者は、AIシステムへの信頼度が低い傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-01-25T14:26:10Z) - Holding AI to Account: Challenges for the Delivery of Trustworthy AI in
Healthcare [8.351355707564153]
我々は、信頼できるAIの問題を検証し、これを実現することが実際に何を意味するのかを探る。
ここでは、人々が社会技術的設定においてAIを推論し、信頼する方法において、組織的説明責任が果たす重要な部分を見落としている、と論じる。
論文 参考訳(メタデータ) (2022-11-29T18:22:23Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。