論文の概要: Position: Cracking the Code of Cascading Disparity Towards Marginalized Communities
- arxiv url: http://arxiv.org/abs/2406.01757v1
- Date: Mon, 3 Jun 2024 19:52:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 21:02:09.581848
- Title: Position: Cracking the Code of Cascading Disparity Towards Marginalized Communities
- Title(参考訳): 位置:集団化社会に向けてのカスケード格差の法則を破る
- Authors: Golnoosh Farnadi, Mohammad Havaei, Negar Rostamzadeh,
- Abstract要約: 余分な地域社会への格差は、孤立した関心事ではなく、カスケードされた格差現象の相互接続要素である。
我々は,相互接続の相違が長期的負の結果を引き起こす基礎モデルにおいて,カスケードの影響の独特な脅威を強調した。
我々は、そのソースにおける格差を軽減するために行動を起こす一連の呼び出しで締めくくります。
- 参考スコア(独自算出の注目度): 14.497314894554828
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of foundation models holds immense promise for advancing AI, but this progress may amplify existing risks and inequalities, leaving marginalized communities behind. In this position paper, we discuss that disparities towards marginalized communities - performance, representation, privacy, robustness, interpretability and safety - are not isolated concerns but rather interconnected elements of a cascading disparity phenomenon. We contrast foundation models with traditional models and highlight the potential for exacerbated disparity against marginalized communities. Moreover, we emphasize the unique threat of cascading impacts in foundation models, where interconnected disparities can trigger long-lasting negative consequences, specifically to the people on the margin. We define marginalized communities within the machine learning context and explore the multifaceted nature of disparities. We analyze the sources of these disparities, tracing them from data creation, training and deployment procedures to highlight the complex technical and socio-technical landscape. To mitigate the pressing crisis, we conclude with a set of calls to action to mitigate disparity at its source.
- Abstract(参考訳): 基礎モデルの台頭はAIを前進させる大きな可能性を秘めているが、この進歩は既存のリスクと不平等を増幅し、余分なコミュニティを置き去りにする可能性がある。
本稿では,疎外化社会への格差 - パフォーマンス, 表現, プライバシー, 堅牢性, 解釈可能性, 安全性 - は, 孤立した関心事ではなく, カスケード的不一致現象の相互接続要素である,と論じる。
我々は、基礎モデルと伝統的なモデルとを対比し、限界化コミュニティに対する更なる格差の可能性を強調します。
さらに,相互接続の相違が長期的負の結果を招きうる基礎モデルにおいて,カスケードの影響の独特な脅威を強調した。
機械学習の文脈において、余分なコミュニティを定義し、格差の多面的な性質を探求する。
我々はこれらの格差の源泉を分析し、データ作成、トレーニング、展開手順からそれらを追跡し、複雑な技術的・社会技術的景観を強調します。
プレッシャー危機を緩和するため、我々は、その源泉における格差を軽減するための一連の行動を呼び掛けて結論づける。
関連論文リスト
- Reconciling Heterogeneous Effects in Causal Inference [44.99833362998488]
本稿では、機械学習におけるモデル乗法にReconcileアルゴリズムを適用し、因果推論における異種効果を再現する。
本研究の結果は,医療,保険,住宅などの高額な事業において,公正な成果の確保に有意な意味を持っている。
論文 参考訳(メタデータ) (2024-06-05T18:43:46Z) - Participation in the age of foundation models [5.0317146589850195]
参加的アプローチは、利害関係者に代理店と意思決定権限を貸すことを約束する。
基礎モデルへの参加を取り入れる既存の試みについて検討する。
我々は、より局所的でアプリケーション指向の、有意義な参加機会を特定する、参加型ファンデーションモデルのための青写真を開発する。
論文 参考訳(メタデータ) (2024-05-29T19:53:23Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - On Catastrophic Inheritance of Large Foundation Models [51.41727422011327]
大ファンデーションモデル(LFM)は素晴らしいパフォーマンスを誇示している。しかし、彼らの神話的および解釈されていないポテンシャルについて大きな懸念が持ち上がっている。
我々は, LFMに深く根ざした「破滅的継承」という, 無視された問題を特定することを提案する。
この問題の背景にある課題を議論し、事前学習と下流適応の両方からLFMの破滅的な継承を理解するためのフレームワークであるUIMを提案する。
論文 参考訳(メタデータ) (2024-02-02T21:21:55Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Fair Models in Credit: Intersectional Discrimination and the
Amplification of Inequity [5.333582981327497]
筆者らはマイクロファイナンス・コンテキストにおけるそのようなアルゴリズムバイアスの影響を実証した。
法的に保護された特徴に加えて、単一親状態や子供の数などの敏感な属性は、不均衡な害をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-08-01T10:34:26Z) - Tensions Between the Proxies of Human Values in AI [20.303537771118048]
AIコミュニティは、これらの柱の特定の定式化を選択するすべての結果を検討する必要がある、と私たちは主張する。
我々は,後者のフレームワークに関する社会工学的な研究をめざしているが,実際に実施するためには,より広範な努力が必要である。
論文 参考訳(メタデータ) (2022-12-14T21:13:48Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。