論文の概要: Re-contextualizing Fairness in NLP: The Case of India
- arxiv url: http://arxiv.org/abs/2209.12226v2
- Date: Wed, 28 Sep 2022 16:46:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 13:08:46.175882
- Title: Re-contextualizing Fairness in NLP: The Case of India
- Title(参考訳): NLPにおけるフェアネスの再コンテキスト化--インドを事例として
- Authors: Shaily Bhatt, Sunipa Dev, Partha Talukdar, Shachi Dave, Vinodkumar
Prabhakaran
- Abstract要約: インドの文脈における公平性評価のためのリソースを構築します。
次に、我々は地域と宗教の社会的ステレオタイプを深く掘り下げ、コーパスとモデルにおけるその普及を実証した。
インドにおけるNLPフェアネス研究の再コンテキスト化のための総合的な研究課題について概説する。
- 参考スコア(独自算出の注目度): 9.919007681131804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has revealed undesirable biases in NLP data & models.
However, these efforts focus of social disparities in West, and are not
directly portable to other geo-cultural contexts. In this paper, we focus on
NLP fairness in the context of India. We start with a brief account of
prominent axes of social disparities in India. We build resources for fairness
evaluation in the Indian context and use them to demonstrate prediction biases
along some of the axes. We then delve deeper into social stereotypes for Region
& Religion, demonstrating its prevalence in corpora & models. Finally, we
outline a holistic research agenda to re-contextualize NLP fairness research
for the Indian context, accounting for Indian societal context, bridging
technological gaps in capability, resources, and adapting to Indian cultural
values. While we focus on 'India' here, this framework can be generalized for
recontextualization in other geo-cultural contexts.
- Abstract(参考訳): 最近の研究では、NLPデータとモデルに望ましくないバイアスが明らかになった。
しかし、これらの取り組みは西洋の社会格差に焦点をあてており、他の地域文化の文脈に直接当てはまるものではない。
本稿では,インドの文脈におけるNLP公正性に着目した。
まず、インドにおける社会的格差の顕著な軸の簡単な説明から始める。
インドの文脈で公平性評価のためのリソースを構築し、それらを使っていくつかの軸に沿って予測バイアスを示す。
次に、地域と宗教の社会的ステレオタイプをより深く掘り下げ、コーポラとモデルでその流行を示す。
最後に,インド社会の文脈を考慮したNLPフェアネス研究の再コンテキスト化,能力,資源,インド文化の価値観への適応といった技術的ギャップを埋める,総合的な研究課題について概説する。
ここで「インド」に焦点を当てるが、この枠組みは他の地文化的文脈における再コンテキスト化のために一般化することができる。
関連論文リスト
- The Call for Socially Aware Language Technologies [94.6762219597438]
NLPが機能する社会環境の要因、文脈、意味の認識の欠如である。
我々は、NLPが社会意識を発達させる上で大きな課題が残っており、この分野の新しい時代の始まりであると主張している。
論文 参考訳(メタデータ) (2024-05-03T18:12:39Z) - A Material Lens on Coloniality in NLP [57.63027898794855]
植民地化は「公式」植民地化を超えて植民地の被害を継続することである。
我々は、植民地性は暗黙的にNLPデータ、アルゴリズム、ソフトウェアに埋め込まれ、増幅されていると主張している。
論文 参考訳(メタデータ) (2023-11-14T18:52:09Z) - Indian-BhED: A Dataset for Measuring India-Centric Biases in Large Language Models [18.201326983938014]
大規模言語モデル(LLM)は社会的バイアスを符号化し、ユーザを表現上の害に晒す。
本研究は,LLMにおけるステレオタイプバイアスを,そのタイプデータセットであるIndian-BhEDを用いて,インド中心のフレームに従って定量化する。
テストされたLLMの大多数は、インドの文脈でステレオタイプを出力する確率が強いことが判明した。
論文 参考訳(メタデータ) (2023-09-15T17:38:41Z) - Are Models Trained on Indian Legal Data Fair? [20.162205920441895]
法律分野におけるインドの観点からの公正性に関する最初の調査を提示する。
本研究では、保釈予測タスクのために訓練された決定木モデルにおいて、ヒンドゥー教とムスリムに関連する入力特徴間の全体的な公平性格差が0.237であることを示す。
論文 参考訳(メタデータ) (2023-03-13T16:20:33Z) - Cultural Re-contextualization of Fairness Research in Language
Technologies in India [9.919007681131804]
最近の研究では、NLPデータとモデルに望ましくないバイアスが明らかになっている。
我々は、インド社会の文脈を考慮に入れながら、インドの文脈に対する公正性の研究を再コンテキスト化する。
また,インドに関する様々な格差の軸に沿った様々な社会的偏見に関する実証的研究の結果を要約した。
論文 参考訳(メタデータ) (2022-11-21T06:37:45Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Geographic Citation Gaps in NLP Research [63.13508571014673]
この研究は、地理的な位置と出版の成功との関係について一連の疑問を呈する。
われわれはまず,ACLアンソロジーから7万件の論文のデータセットを作成し,そのメタ情報を抽出し,引用ネットワークを生成した。
論文の受理や引用において地理的に大きな差異があるだけでなく,出版場所やNLPのサブフィールドなどの変数を制御しても,これらの格差は持続することを示す。
論文 参考訳(メタデータ) (2022-10-26T02:25:23Z) - Square One Bias in NLP: Towards a Multi-Dimensional Exploration of the
Research Manifold [88.83876819883653]
我々は、最近のNLP研究論文のマニュアル分類を通して、これが事実であることを示す。
NLP研究は正方形ではなく、精度だけでなく、公平性や解釈可能性にも焦点をあてる。
論文 参考訳(メタデータ) (2022-06-20T13:04:23Z) - Re-imagining Algorithmic Fairness in India and Beyond [9.667710168953239]
アルゴリズムの公平性を分離し、インドのaiパワーを分析します。
社会経済的要因によってデータが必ずしも信頼できるとは限らない。
データとモデルの再コンテキスト化、抑圧されたコミュニティの強化、Fair-MLエコシステムの実現のためのロードマップを提供します。
論文 参考訳(メタデータ) (2021-01-25T10:20:57Z) - Non-portability of Algorithmic Fairness in India [9.8164690355257]
我々は、単なる技術的公正性のインドのサブグループへの翻訳は、ウィンドウドレッシングとしてのみ機能すると主張している。
データとモデルをコンテクスト化し、抑圧されたコミュニティを力づけることによって、Fair-MLの集合的な再イメージが、エコシステムを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2020-12-03T23:14:13Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。