論文の概要: Accessibility Considerations in the Development of an AI Action Plan
- arxiv url: http://arxiv.org/abs/2503.14522v1
- Date: Fri, 14 Mar 2025 21:57:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:25:56.014209
- Title: Accessibility Considerations in the Development of an AI Action Plan
- Title(参考訳): AI行動計画開発におけるアクセシビリティの考察
- Authors: Jennifer Mankoff, Janice Light, James Coughlan, Christian Vogler, Abraham Glasser, Gregg Vanderheiden, Laura Rice,
- Abstract要約: 我々はアクセシビリティがいくつかの重要なドメインで表現される必要があると主張している。
AIベースのアクセシビリティ技術によって収集されたデータを含む、データセキュリティとプライバシとプライバシのリスク。
障害固有のAIリスクとバイアス(障害者によるAI使用中)と間接バイアス(障害者に関連するデータでAIが他の誰かによって使用される場合)の両方を含む。
- 参考スコア(独自算出の注目度): 10.467658828071057
- License:
- Abstract: We argue that there is a need for Accessibility to be represented in several important domains: - Capitalize on the new capabilities AI provides - Support for open source development of AI, which can allow disabled and disability focused professionals to contribute, including - Development of Accessibility Apps which help realise the promise of AI in accessibility domains - Open Source Model Development and Validation to ensure that accessibility concerns are addressed in these algorithms - Data Augmentation to include accessibility in data sets used to train models - Accessible Interfaces that allow disabled people to use any AI app, and to validate its outputs - Dedicated Functionality and Libraries that can make it easy to integrate AI support into a variety of settings and apps. - Data security and privacy and privacy risks including data collected by AI based accessibility technologies; and the possibility of disability disclosure. - Disability-specific AI risks and biases including both direct bias (during AI use by the disabled person) and indirect bias (when AI is used by someone else on data relating to a disabled person).
- Abstract(参考訳): AIが提供する新しい機能の資本化 - 障害者と障害者に焦点を当てたAIのオープンソース開発のサポート - アクセシビリティドメインにおけるAIの約束を実現するためのアクセシビリティアプリの開発 - これらのアルゴリズムでアクセシビリティの問題に対処するためのオープンソースモデル開発とバリデーション - モデルのトレーニングに使用されるデータセットへのアクセシビリティを含むデータ拡張 - 障害者が任意のAIアプリの使用を可能にし、そのアウトプットを検証することのできるアクセシビリティインターフェース - さまざまな設定やアプリにAIサポートを簡単に統合可能な、関数性とライブラリ。
-AIベースのアクセシビリティ技術によって収集されたデータを含むデータセキュリティとプライバシとプライバシのリスク、障害開示の可能性。
-障害固有のAIリスクとバイアス(障害者によるAI使用中)と間接バイアス(障害者に関するデータでAIが他の誰かによって使用される場合)の両方を含む。
関連論文リスト
- CodeA11y: Making AI Coding Assistants Useful for Accessible Web Development [22.395216419337768]
アクセシビリティツールが特化しているにもかかわらず、初心者の開発者はそれを知らないことが多く、アクセシビリティ違反を含むWebページの96%に繋がる。
16人の開発者によるフォーマティブな調査では、AIがアクセシビリティーにAIを促さないこと、プレースホルダー属性を置き換えるといった重要な手動ステップを省略すること、コンプライアンスを検証できないこと、という3つの重要な課題が明らかになった。
これらの問題に対処するため、GitHub Copilot ExtensionであるCodeA11yを開発した。
論文 参考訳(メタデータ) (2025-02-15T19:11:21Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Disability data futures: Achievable imaginaries for AI and disability data justice [2.0549239024359762]
データとは、個人のアイデンティティが現代の状態やシステムでフィルタリングされる媒体である。
データとAIの歴史は、しばしば障害排除、抑圧、障害経験の削減の1つです。
この章は、人工知能と障害データ正義のための達成可能な想像力を記述するために、4人の学者と障害擁護者を集めている。
論文 参考訳(メタデータ) (2024-11-06T13:04:29Z) - A Survey of Accessible Explainable Artificial Intelligence Research [0.0]
本稿では、説明可能な人工知能(XAI)のアクセシビリティに関する研究について、系統的な文献レビューを行う。
提案手法は,XAIとアクセシビリティーの交差点を捉えるために,いくつかの学術データベースを検索語で検索することを含む。
我々は、デジタル包摂とアクセシビリティを促進するために、XAI開発に障害コミュニティを含めることの重要性を強調している。
論文 参考訳(メタデータ) (2024-07-02T21:09:46Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - RAISE -- Radiology AI Safety, an End-to-end lifecycle approach [5.829180249228172]
放射線学へのAIの統合は、臨床ケアの供給と効率を改善する機会をもたらす。
モデルが安全性、有効性、有効性の最高基準を満たすことに注力すべきである。
ここで提示されるロードマップは、放射線学におけるデプロイ可能で信頼性があり、安全なAIの達成を早めることを目的としている。
論文 参考訳(メタデータ) (2023-11-24T15:59:14Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Structured access to AI capabilities: an emerging paradigm for safe AI
deployment [0.0]
AIシステムをオープンに普及させる代わりに、開発者はAIシステムとの制御された腕の長さのインタラクションを促進する。
Aimは、危険なAI能力が広くアクセスされることを防ぐと同時に、安全に使用できるAI機能へのアクセスを保護することを目的としている。
論文 参考訳(メタデータ) (2022-01-13T19:30:16Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。