論文の概要: Diversity and Language Technology: How Techno-Linguistic Bias Can Cause
Epistemic Injustice
- arxiv url: http://arxiv.org/abs/2307.13714v1
- Date: Tue, 25 Jul 2023 16:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 14:56:53.510250
- Title: Diversity and Language Technology: How Techno-Linguistic Bias Can Cause
Epistemic Injustice
- Title(参考訳): 多様性と言語技術:テクノ言語バイアスが認識論的不正をいかに引き起こすか
- Authors: Paula Helm, G\'abor Bella, Gertraud Koch, Fausto Giunchiglia
- Abstract要約: 多くの試みが、特定の言語に対するハードワイヤの表現的嗜好に固執する欠陥のある解を生み出していることを示す。
論文で示すように、技術的言語バイアスは、支配的な権力の言語と文化の一部である概念を表現できるシステムをもたらす可能性がある。
この問題の根底には、多様性の単純化された理解を適用する技術開発コミュニティの体系的な傾向がある、と我々は主張する。
- 参考スコア(独自算出の注目度): 4.234367850767171
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: It is well known that AI-based language technology -- large language models,
machine translation systems, multilingual dictionaries, and corpora -- is
currently limited to 2 to 3 percent of the world's most widely spoken and/or
financially and politically best supported languages. In response, recent
research efforts have sought to extend the reach of AI technology to
``underserved languages.'' In this paper, we show that many of these attempts
produce flawed solutions that adhere to a hard-wired representational
preference for certain languages, which we call techno-linguistic bias.
Techno-linguistic bias is distinct from the well-established phenomenon of
linguistic bias as it does not concern the languages represented but rather the
design of the technologies. As we show through the paper, techno-linguistic
bias can result in systems that can only express concepts that are part of the
language and culture of dominant powers, unable to correctly represent concepts
from other communities. We argue that at the root of this problem lies a
systematic tendency of technology developer communities to apply a simplistic
understanding of diversity which does not do justice to the more profound
differences that languages, and ultimately the communities that speak them,
embody. Drawing on the concept of epistemic injustice, we point to the broader
sociopolitical consequences of the bias we identify and show how it can lead
not only to a disregard for valuable aspects of diversity but also to an
under-representation of the needs and diverse worldviews of marginalized
language communities.
- Abstract(参考訳): AIベースの言語技術 -- 大規模言語モデル、機械翻訳システム、多言語辞書、コーポラ -- が、現在、世界で最も広く話され、経済的、政治的に最も支持された言語の2%から3%に制限されていることはよく知られている。
これに対し、最近の研究は、AI技術の到達範囲を 'underserved language' にまで広げようとしている。
この論文では、これらの試みの多くは、特定の言語に対する厳密な表現的嗜好に固執する欠陥のあるソリューションを生み出していることを示す。
技術的言語バイアスは、言語バイアスの確立した現象とは異なっている。
論文を通じて示すように、テクノ言語バイアスは、支配的な力の言語や文化の一部である概念のみを表現でき、他のコミュニティの概念を正しく表現できないシステムをもたらす可能性がある。
この問題の根底にあるのは、多様性をシンプルに理解する技術開発コミュニティの体系的な傾向であり、それは言語のより深い違い、そして最終的にはそれらについて話すコミュニティに公平ではない、と我々は主張する。
疫学的不正の概念に基づいて、我々が特定したバイアスのより広範な社会政治学的帰結を指摘し、それが多様性の貴重な側面を軽視するだけでなく、言語コミュニティのニーズと多様な世界観の過小評価に繋がることを示す。
関連論文リスト
- A Capabilities Approach to Studying Bias and Harm in Language Technologies [4.135516576952934]
我々は、能力アプローチのレンズを通して、言語技術への公平さ、偏見、包摂性を考察する。
能力のアプローチは、人々が達成できるものに集中し、社会的、政治的、経済的文脈を考慮に入れている。
本稿では,機能アプローチ,多言語・多文化的評価との関係,言語技術の有害性の定義と評価において,コミュニティメンバと有意義な協力を得られるか,について詳述する。
論文 参考訳(メタデータ) (2024-11-06T22:46:13Z) - Diversidade linguística e inclusão digital: desafios para uma ia brasileira [0.0]
言語的多様性は、生成的AIの進歩とともに、脅威にさらされている人間の属性である。
本稿では, 技術応用による多様性選択バイアスと, 支配的かつ標準化された品種を保全する悪循環の結果について検討する。
論文 参考訳(メタデータ) (2024-11-02T14:17:33Z) - What Do Dialect Speakers Want? A Survey of Attitudes Towards Language Technology for German Dialects [60.8361859783634]
我々はドイツ語に関連する方言と地域言語に関する話者を調査した。
回答者は特に、方言入力で動作する潜在的なNLPツールを好んでいる。
論文 参考訳(メタデータ) (2024-02-19T09:15:28Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Task-Agnostic Low-Rank Adapters for Unseen English Dialects [52.88554155235167]
LLM(Large Language Models)は、標準アメリカ英語を好んで不均等に重み付けされたコーパスで訓練される。
HyperLoRAは、方言特化情報と方言横断情報を混同することにより、タスクに依存しない方法で未確認の方言への一般化を改善する。
論文 参考訳(メタデータ) (2023-11-02T01:17:29Z) - Lexical Diversity in Kinship Across Languages and Dialects [6.80465507148218]
本稿では,言語多様性に関する内容と計算語彙を融合させる手法を提案する。
本手法は、血縁用語に関する2つの大規模ケーススタディを通じて検証される。
論文 参考訳(メタデータ) (2023-08-24T19:49:30Z) - Towards Bridging the Digital Language Divide [4.234367850767171]
多言語言語処理システムは、しばしばハードワイヤで、通常不随意で、特定の言語に対して隠された表現的嗜好を示す。
偏りのある技術は、しばしば表現される言語の複雑さに不公平な研究・開発手法の結果であることを示す。
我々は,技術設計と方法論の両面から,言語バイアスを減らすことを目的とした新しいイニシアティブを提案する。
論文 参考訳(メタデータ) (2023-07-25T10:53:20Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Evaluating the Diversity, Equity and Inclusion of NLP Technology: A Case
Study for Indian Languages [35.86100962711644]
NLP技術が広く適用され、公正で有用になるためには、世界中の言語で多様な話者を提供する必要がある。
本研究では,NLP技術を3次元にわたって評価する評価パラダイムを提案する。
論文 参考訳(メタデータ) (2022-05-25T11:38:04Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。