論文の概要: Re-imagining Algorithmic Fairness in India and Beyond
- arxiv url: http://arxiv.org/abs/2101.09995v2
- Date: Wed, 27 Jan 2021 02:30:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 19:23:51.615485
- Title: Re-imagining Algorithmic Fairness in India and Beyond
- Title(参考訳): インドと海外における再想像アルゴリズムの公平性
- Authors: Nithya Sambasivan, Erin Arnesen, Ben Hutchinson, Tulsee Doshi,
Vinodkumar Prabhakaran
- Abstract要約: アルゴリズムの公平性を分離し、インドのaiパワーを分析します。
社会経済的要因によってデータが必ずしも信頼できるとは限らない。
データとモデルの再コンテキスト化、抑圧されたコミュニティの強化、Fair-MLエコシステムの実現のためのロードマップを提供します。
- 参考スコア(独自算出の注目度): 9.667710168953239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional algorithmic fairness is West-centric, as seen in its sub-groups,
values, and methods. In this paper, we de-center algorithmic fairness and
analyse AI power in India. Based on 36 qualitative interviews and a discourse
analysis of algorithmic deployments in India, we find that several assumptions
of algorithmic fairness are challenged. We find that in India, data is not
always reliable due to socio-economic factors, ML makers appear to follow
double standards, and AI evokes unquestioning aspiration. We contend that
localising model fairness alone can be window dressing in India, where the
distance between models and oppressed communities is large. Instead, we
re-imagine algorithmic fairness in India and provide a roadmap to
re-contextualise data and models, empower oppressed communities, and enable
Fair-ML ecosystems.
- Abstract(参考訳): 従来のアルゴリズムの公平性は、サブグループ、値、メソッドに見られるように、西中心である。
本稿では,インドにおけるアルゴリズムの公平性を脱中心化し,AIパワーを解析する。
36の定性的なインタビューとインドのアルゴリズム展開の談話分析に基づいて、アルゴリズムの公平性のいくつかの仮定が挑戦されていることがわかります。
インドでは、社会経済的要因のためにデータが常に信頼できるとは限りません。MLメーカーは二重基準に従うように見え、AIは疑わしい願望を呼び起こします。
モデルフェアネスのローカライズだけでは、モデルと抑圧されたコミュニティの間の距離が大きいインドではウィンドウドレッシングが可能である。
代わりに、インドのアルゴリズムの公平性を再想像し、データとモデルを再解釈し、抑圧されたコミュニティに権限を与え、フェアMLエコシステムを可能にするロードマップを提供します。
関連論文リスト
- (Unfair) Norms in Fairness Research: A Meta-Analysis [6.395584220342517]
我々は,AIフェアネスと倫理に関する2つの主要なカンファレンスから,アルゴリズムフェアネス論文のメタ分析を行う。
まず、米国中心の視点が公正調査全体において支配的な傾向を示す。
第二に、公正性の研究は、人間のアイデンティティの二項結合に広く依存している。
論文 参考訳(メタデータ) (2024-06-17T17:14:47Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Are Models Trained on Indian Legal Data Fair? [20.162205920441895]
法律分野におけるインドの観点からの公正性に関する最初の調査を提示する。
本研究では、保釈予測タスクのために訓練された決定木モデルにおいて、ヒンドゥー教とムスリムに関連する入力特徴間の全体的な公平性格差が0.237であることを示す。
論文 参考訳(メタデータ) (2023-03-13T16:20:33Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Re-contextualizing Fairness in NLP: The Case of India [9.919007681131804]
インドの文脈におけるNLPフェアネスに焦点を当てる。
インドの文脈における公平性評価のためのリソースを構築します。
次に、我々は地域と宗教の社会的ステレオタイプを深く掘り下げ、コーパスとモデルにおけるその普及を実証した。
論文 参考訳(メタデータ) (2022-09-25T13:56:13Z) - Decoding Demographic un-fairness from Indian Names [4.402336973466853]
デモグラフィック分類は、レコメンデーションシステムにおける公正度評価や、オンラインネットワークや投票システムにおける意図しない偏見の測定に不可欠である。
我々は3つの公開データセットを収集し、性別分類とキャスト分類の領域で最先端の分類器を訓練する。
上記のモデルの有効性を理解するために、クロステスト(異なるデータセットでのトレーニングとテスト)を実施します。
論文 参考訳(メタデータ) (2022-09-07T11:54:49Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Non-portability of Algorithmic Fairness in India [9.8164690355257]
我々は、単なる技術的公正性のインドのサブグループへの翻訳は、ウィンドウドレッシングとしてのみ機能すると主張している。
データとモデルをコンテクスト化し、抑圧されたコミュニティを力づけることによって、Fair-MLの集合的な再イメージが、エコシステムを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2020-12-03T23:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。