論文の概要: Non-portability of Algorithmic Fairness in India
- arxiv url: http://arxiv.org/abs/2012.03659v2
- Date: Tue, 8 Dec 2020 20:10:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 14:39:27.828408
- Title: Non-portability of Algorithmic Fairness in India
- Title(参考訳): インドにおけるアルゴリズムフェアネスの非可搬性
- Authors: Nithya Sambasivan, Erin Arnesen, Ben Hutchinson, Vinodkumar
Prabhakaran
- Abstract要約: 我々は、単なる技術的公正性のインドのサブグループへの翻訳は、ウィンドウドレッシングとしてのみ機能すると主張している。
データとモデルをコンテクスト化し、抑圧されたコミュニティを力づけることによって、Fair-MLの集合的な再イメージが、エコシステムを可能にする、と我々は主張する。
- 参考スコア(独自算出の注目度): 9.8164690355257
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conventional algorithmic fairness is Western in its sub-groups, values, and
optimizations. In this paper, we ask how portable the assumptions of this
largely Western take on algorithmic fairness are to a different geo-cultural
context such as India. Based on 36 expert interviews with Indian scholars, and
an analysis of emerging algorithmic deployments in India, we identify three
clusters of challenges that engulf the large distance between machine learning
models and oppressed communities in India. We argue that a mere translation of
technical fairness work to Indian subgroups may serve only as a window
dressing, and instead, call for a collective re-imagining of Fair-ML, by
re-contextualising data and models, empowering oppressed communities, and more
importantly, enabling ecosystems.
- Abstract(参考訳): 従来のアルゴリズムの公正さは、その部分群、値、最適化において西洋的である。
本稿では,この西洋のアルゴリズム的公平性に対する仮定が,インドのような異なる地理文化的文脈にいかにポータブルであるかを問う。
インドにおける36人の専門家によるインタビューと、新たなアルゴリズムの展開の分析に基づいて、インドにおける機械学習モデルと抑圧されたコミュニティの間の大きな距離を埋める3つの課題を識別する。
我々は、単にインドのサブグループへの技術的公正性作業の翻訳は、単にウィンドウドレッシングとしてのみ機能し、代わりに、データとモデルを再コンテクスト化し、抑圧されたコミュニティの権限を付与し、生態系を有効化することによって、Fair-MLの集合的な再想像を呼び起こすことができると主張している。
関連論文リスト
- Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Are Models Trained on Indian Legal Data Fair? [20.162205920441895]
法律分野におけるインドの観点からの公正性に関する最初の調査を提示する。
本研究では、保釈予測タスクのために訓練された決定木モデルにおいて、ヒンドゥー教とムスリムに関連する入力特徴間の全体的な公平性格差が0.237であることを示す。
論文 参考訳(メタデータ) (2023-03-13T16:20:33Z) - Cultural Re-contextualization of Fairness Research in Language
Technologies in India [9.919007681131804]
最近の研究では、NLPデータとモデルに望ましくないバイアスが明らかになっている。
我々は、インド社会の文脈を考慮に入れながら、インドの文脈に対する公正性の研究を再コンテキスト化する。
また,インドに関する様々な格差の軸に沿った様々な社会的偏見に関する実証的研究の結果を要約した。
論文 参考訳(メタデータ) (2022-11-21T06:37:45Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Re-contextualizing Fairness in NLP: The Case of India [9.919007681131804]
インドの文脈におけるNLPフェアネスに焦点を当てる。
インドの文脈における公平性評価のためのリソースを構築します。
次に、我々は地域と宗教の社会的ステレオタイプを深く掘り下げ、コーパスとモデルにおけるその普及を実証した。
論文 参考訳(メタデータ) (2022-09-25T13:56:13Z) - Decoding Demographic un-fairness from Indian Names [4.402336973466853]
デモグラフィック分類は、レコメンデーションシステムにおける公正度評価や、オンラインネットワークや投票システムにおける意図しない偏見の測定に不可欠である。
我々は3つの公開データセットを収集し、性別分類とキャスト分類の領域で最先端の分類器を訓練する。
上記のモデルの有効性を理解するために、クロステスト(異なるデータセットでのトレーニングとテスト)を実施します。
論文 参考訳(メタデータ) (2022-09-07T11:54:49Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Utilizing Wordnets for Cognate Detection among Indian Languages [50.83320088758705]
ヒンディー語と10のインド諸語間の単語対を検出する。
深層学習手法を用いて単語対が共生か否かを予測する。
性能は最大26%向上した。
論文 参考訳(メタデータ) (2021-12-30T16:46:28Z) - Re-imagining Algorithmic Fairness in India and Beyond [9.667710168953239]
アルゴリズムの公平性を分離し、インドのaiパワーを分析します。
社会経済的要因によってデータが必ずしも信頼できるとは限らない。
データとモデルの再コンテキスト化、抑圧されたコミュニティの強化、Fair-MLエコシステムの実現のためのロードマップを提供します。
論文 参考訳(メタデータ) (2021-01-25T10:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。