論文の概要: Provocation: Who benefits from "inclusion" in Generative AI?
- arxiv url: http://arxiv.org/abs/2411.09102v2
- Date: Fri, 15 Nov 2024 17:09:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 12:20:07.400465
- Title: Provocation: Who benefits from "inclusion" in Generative AI?
- Title(参考訳): 挑発: ジェネレーティブAIの"包摂性"から恩恵を受けるのは誰か?
- Authors: Samantha Dalal, Siobhan Mackenzie Hall, Nari Johnson,
- Abstract要約: 我々は、AI開発と評価におけるコミュニティ参加の圧倒的な構造は、社会的に疎外されたグループのメンバーが参加の結果として経験できる利益と害について十分に明示されていないと論じる。
この投機的コンテキストを使って、提案された利益を実現するために克服すべき障壁を整理し、害を軽減します。
- 参考スコア(独自算出の注目度): 3.3158518534707992
- License:
- Abstract: The demands for accurate and representative generative AI systems means there is an increased demand on participatory evaluation structures. While these participatory structures are paramount to to ensure non-dominant values, knowledge and material culture are also reflected in AI models and the media they generate, we argue that dominant structures of community participation in AI development and evaluation are not explicit enough about the benefits and harms that members of socially marginalized groups may experience as a result of their participation. Without explicit interrogation of these benefits by AI developers, as a community we may remain blind to the immensity of systemic change that is needed as well. To support this provocation, we present a speculative case study, developed from our own collective experiences as AI researchers. We use this speculative context to itemize the barriers that need to be overcome in order for the proposed benefits to marginalized communities to be realized, and harms mitigated.
- Abstract(参考訳): 高精度で代表的な生成AIシステムの要求は、参加型評価構造に対する需要が増加していることを意味する。
これらの参加型構造は、非支配的な価値を保証するために最重要であるが、知識と物質文化はAIモデルやメディアにも反映されている。
AI開発者によるこれらのメリットの明示的な尋問がなければ、コミュニティとして私たちは、必要となる体系的な変化の欠如に目を向けることになるかも知れません。
この挑発を支援するために、我々はAI研究者としての我々の集合的経験から発展した投機的ケーススタディを提示した。
我々は、この投機的文脈を用いて、限界化されたコミュニティを実現するための提案された利益を実現するために克服すべき障壁を抽出し、害を軽減します。
関連論文リスト
- The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Power to the People? Opportunities and Challenges for Participatory AI [9.504176941117493]
人工知能(AI)と機械学習(ML)への参加的アプローチが勢いを増している。
本稿では,AIとMLパイプライン内の参加者参加手法や実践と同様に,歴史的文脈における参加的アプローチをレビューする。
我々は、参加型AI/MLが流行するにつれて、この用語の文脈的・ニュアンス的な理解と、参加型活動の主要な受益者がもたらす利益と機会を実現する上で重要な要素であるべきかどうかを考察する。
論文 参考訳(メタデータ) (2022-09-15T19:20:13Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Envisioning Communities: A Participatory Approach Towards AI for Social
Good [10.504838259488844]
社会的善のためのAIは、AIシステムが影響するコミュニティによって評価されるべきである、と我々は主張する。
社会的良き研究のためのAIの設計と実装のための参加型アプローチと、その能力のアプローチがどのように一致するかを示す。
論文 参考訳(メタデータ) (2021-05-04T21:40:04Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。