論文の概要: Cultural Re-contextualization of Fairness Research in Language
Technologies in India
- arxiv url: http://arxiv.org/abs/2211.11206v1
- Date: Mon, 21 Nov 2022 06:37:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:10:50.282501
- Title: Cultural Re-contextualization of Fairness Research in Language
Technologies in India
- Title(参考訳): インドにおける言語技術における公正研究の文化的再コンテキスト化
- Authors: Shaily Bhatt, Sunipa Dev, Partha Talukdar, Shachi Dave, Vinodkumar
Prabhakaran
- Abstract要約: 最近の研究では、NLPデータとモデルに望ましくないバイアスが明らかになっている。
我々は、インド社会の文脈を考慮に入れながら、インドの文脈に対する公正性の研究を再コンテキスト化する。
また,インドに関する様々な格差の軸に沿った様々な社会的偏見に関する実証的研究の結果を要約した。
- 参考スコア(独自算出の注目度): 9.919007681131804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has revealed undesirable biases in NLP data and models.
However, these efforts largely focus on social disparities in the West, and are
not directly portable to other geo-cultural contexts. In this position paper,
we outline a holistic research agenda to re-contextualize NLP fairness research
for the Indian context, accounting for Indian societal context, bridging
technological gaps in capability and resources, and adapting to Indian cultural
values. We also summarize findings from an empirical study on various social
biases along different axes of disparities relevant to India, demonstrating
their prevalence in corpora and models.
- Abstract(参考訳): 最近の研究では、NLPデータとモデルに望ましくないバイアスが明らかになった。
しかし、これらの取り組みは西洋の社会的格差に主に焦点を合わせており、他の地文化的文脈に直接適用できない。
本稿では,インドにおけるNLPフェアネス研究の再コンテキスト化,インド社会の文脈の説明,能力と資源の技術的ギャップの埋め合わせ,インド文化の価値観への適応について概説する。
また、インドに関する様々な格差軸に沿った様々な社会的偏見に関する実証的研究の結果を要約し、コーパスやモデルにおけるそれらの有病率を示す。
関連論文リスト
- Do Generative AI Models Output Harm while Representing Non-Western Cultures: Evidence from A Community-Centered Approach [8.805524738976073]
本研究では,生成人工知能(GAI)モデル,特にテキスト・ツー・イメージ・ジェネレータ(T2Is)が非西洋文化の表現に与える影響について検討する。
論文 参考訳(メタデータ) (2024-07-20T07:01:37Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - Culturally Aware and Adapted NLP: A Taxonomy and a Survey of the State of the Art [70.1063219524999]
文化的に認識され、適応された自然言語処理への関心の高まりは、近年の研究にインスピレーションを与えている。
文化」概念の共通理解の欠如は、この新興地域の進歩を評価するのを困難にしている。
本稿では,研究の進展を分析し,理解するための体系的な枠組みを提供する,文化の要素の広範な分類法を提案する。
論文 参考訳(メタデータ) (2024-06-06T10:16:43Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - A Material Lens on Coloniality in NLP [57.63027898794855]
植民地化は「公式」植民地化を超えて植民地の被害を継続することである。
我々は、植民地性は暗黙的にNLPデータ、アルゴリズム、ソフトウェアに埋め込まれ、増幅されていると主張している。
論文 参考訳(メタデータ) (2023-11-14T18:52:09Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Re-contextualizing Fairness in NLP: The Case of India [9.919007681131804]
インドの文脈におけるNLPフェアネスに焦点を当てる。
インドの文脈における公平性評価のためのリソースを構築します。
次に、我々は地域と宗教の社会的ステレオタイプを深く掘り下げ、コーパスとモデルにおけるその普及を実証した。
論文 参考訳(メタデータ) (2022-09-25T13:56:13Z) - Understanding misinformation in India: The case for a meaningful
regulatory approach for social media platforms [0.0]
本稿では,我が国の誤情報とその後の社会的・ビジネス的混乱の文脈に一貫性のある読解を導入することを目的とする。
文献資料はそれぞれの項目で言及されている。
論文 参考訳(メタデータ) (2022-06-19T15:14:06Z) - Systematic Inequalities in Language Technology Performance across the
World's Languages [94.65681336393425]
本稿では,言語技術のグローバルな有用性を評価するためのフレームワークを紹介する。
本分析では, ユーザ対応技術と言語的NLPタスクの両面において, より深く研究されている。
論文 参考訳(メタデータ) (2021-10-13T14:03:07Z) - Re-imagining Algorithmic Fairness in India and Beyond [9.667710168953239]
アルゴリズムの公平性を分離し、インドのaiパワーを分析します。
社会経済的要因によってデータが必ずしも信頼できるとは限らない。
データとモデルの再コンテキスト化、抑圧されたコミュニティの強化、Fair-MLエコシステムの実現のためのロードマップを提供します。
論文 参考訳(メタデータ) (2021-01-25T10:20:57Z) - Non-portability of Algorithmic Fairness in India [9.8164690355257]
我々は、単なる技術的公正性のインドのサブグループへの翻訳は、ウィンドウドレッシングとしてのみ機能すると主張している。
データとモデルをコンテクスト化し、抑圧されたコミュニティを力づけることによって、Fair-MLの集合的な再イメージが、エコシステムを可能にする、と我々は主張する。
論文 参考訳(メタデータ) (2020-12-03T23:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。