論文の概要: A Democratic Platform for Engaging with Disabled Community in Generative
AI Development
- arxiv url: http://arxiv.org/abs/2309.14921v1
- Date: Tue, 26 Sep 2023 13:30:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 13:44:28.310539
- Title: A Democratic Platform for Engaging with Disabled Community in Generative
AI Development
- Title(参考訳): 生成型ai開発における障害者コミュニティ参加のための民主的プラットフォーム
- Authors: Deepak Giri, Erin Brady
- Abstract要約: ジェネレーティブなAIツールの影響と人気が高まり、私たちは障害のあるコミュニティにおけるそれらの関連性を調べるようになった。
本ワークショップでは,生産型AIシステムを構築しながら,障害者コミュニティを巻き込むプラットフォームを提案する。
- 参考スコア(独自算出の注目度): 0.9065034043031664
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) systems, especially generative AI technologies
are becoming more relevant in our society. Tools like ChatGPT are being used by
members of the disabled community e.g., Autistic people may use it to help
compose emails. The growing impact and popularity of generative AI tools have
prompted us to examine their relevance within the disabled community. The
design and development phases often neglect this marginalized group, leading to
inaccurate predictions and unfair discrimination directed towards them. This
could result from bias in data sets, algorithms, and systems at various phases
of creation and implementation. This workshop paper proposes a platform to
involve the disabled community while building generative AI systems. With this
platform, our aim is to gain insight into the factors that contribute to bias
in the outputs generated by generative AI when used by the disabled community.
Furthermore, we expect to comprehend which algorithmic factors are the main
contributors to the output's incorrectness or irrelevancy. The proposed
platform calls on both disabled and non-disabled people from various
geographical and cultural backgrounds to collaborate asynchronously and
remotely in a democratic approach to decision-making.
- Abstract(参考訳): 人工知能(AI)システム、特に生成型AI技術は、私たちの社会でより重要になっています。
ChatGPTのようなツールは障害のあるコミュニティのメンバーによって使用されている。
ジェネレーティブなAIツールの影響と人気が高まり、私たちは障害のあるコミュニティにおけるそれらの関連性を調べるようになった。
設計と開発段階は、しばしばこの限界化されたグループを無視し、不正確な予測と不公平な差別に繋がった。
これは、作成と実装のさまざまなフェーズにおけるデータセット、アルゴリズム、システムのバイアスに起因する可能性がある。
本ワークショップでは,生産型AIシステムを構築しながら,障害者コミュニティを巻き込むプラットフォームを提案する。
このプラットフォームでは、障害のあるコミュニティが使用する生成AIが生成するアウトプットのバイアスに寄与する要因について、洞察を得ることを目的としています。
さらに、アウトプットの不正確性や無関係性の主な要因はどのアルゴリズム因子にあるかを理解することを期待する。
提案プラットフォームでは,さまざまな地理的・文化的背景を持つ障害者と非障害者の双方に,意思決定への民主的アプローチとして,非同期かつ遠隔的協力を求める。
関連論文リスト
- AI in Support of Diversity and Inclusion [5.415339913320849]
大規模言語モデル(LLM)をより透明化し、包括的で、社会的偏見を認識していく上での課題と進歩を考察する。
メディア内の偏見のあるコンテンツを識別する上で、AIが果たす役割を強調します。
AIシステムには多様な包括的トレーニングデータが必要だ、と私たちは強調する。
論文 参考訳(メタデータ) (2025-01-16T13:36:24Z) - Disability data futures: Achievable imaginaries for AI and disability data justice [2.0549239024359762]
データとは、個人のアイデンティティが現代の状態やシステムでフィルタリングされる媒体である。
データとAIの歴史は、しばしば障害排除、抑圧、障害経験の削減の1つです。
この章は、人工知能と障害データ正義のための達成可能な想像力を記述するために、4人の学者と障害擁護者を集めている。
論文 参考訳(メタデータ) (2024-11-06T13:04:29Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Generative AI trial for nonviolent communication mediation [0.0]
ChatGPTは、従来の認定トレーナーの代わりに、入力文を仲介する可能性をテストするために使用された。
結果は、まだ実用レベルには達していないが、生成AIの応用には可能性があることを示唆している。
生成型AIを用いたNVCメディエーションの普及が、ミックスバイオティクス社会の早期実現につながることが期待されている。
論文 参考訳(メタデータ) (2023-08-07T06:19:29Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。