論文の概要: Language technology practitioners as language managers: arbitrating data
bias and predictive bias in ASR
- arxiv url: http://arxiv.org/abs/2202.12603v1
- Date: Fri, 25 Feb 2022 10:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:14:07.091200
- Title: Language technology practitioners as language managers: arbitrating data
bias and predictive bias in ASR
- Title(参考訳): ASRにおけるデータバイアスと予測バイアスを仲裁する言語技術実践者
- Authors: Nina Markl and Stephen Joseph McNulty
- Abstract要約: 我々は、言語政策のレンズを使用して、業界におけるASRシステムのトレーニングとテストの現在の実践が、これらの体系的なエラーの違いをもたらすデータバイアスにどのように結びつくかを分析する。
我々は,言語資源の再フレーミングを,市場だけでなく,言論コミュニティの有意義な協力のもとに設計すべき(公的な)基盤として提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the fact that variation is a fundamental characteristic of natural
language, automatic speech recognition systems perform systematically worse on
non-standardised and marginalised language varieties. In this paper we use the
lens of language policy to analyse how current practices in training and
testing ASR systems in industry lead to the data bias giving rise to these
systematic error differences. We believe that this is a useful perspective for
speech and language technology practitioners to understand the origins and
harms of algorithmic bias, and how they can mitigate it. We also propose a
re-framing of language resources as (public) infrastructure which should not
solely be designed for markets, but for, and with meaningful cooperation of,
speech communities.
- Abstract(参考訳): 変動が自然言語の基本特性であるにもかかわらず、自動音声認識システムは、非標準言語と限界言語で体系的に悪化する。
本稿では、言語政策のレンズを用いて、業界におけるASRシステムのトレーニングとテストの現在の実践が、これらの体系的な誤りの相違をもたらすデータバイアスの原因となっているかを分析する。
これは、音声および言語技術実践者がアルゴリズムバイアスの起源と害を理解し、それを緩和する方法を理解する上で有用な視点である、と我々は信じている。
また,言語資源の(公的な)基盤として,市場だけでなく,言論コミュニティの有意義な協力のもとに,言語資源の再フレーミングを提案する。
関連論文リスト
- Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Uncertainty in Natural Language Generation: From Theory to Applications [42.55924708592451]
我々は,不確実性に対する原則的対応が,これらの目標に適合するシステムや評価プロトコルの作成に有効であると主張している。
まず,不確実性を表現するために必要な基本理論,枠組み,語彙について述べる。
そこで,本研究では,一般的なアレタリック/エピステミック二分法よりも情報的かつ忠実な2次元分類法を提案する。
論文 参考訳(メタデータ) (2023-07-28T17:51:21Z) - Towards Bridging the Digital Language Divide [4.234367850767171]
多言語言語処理システムは、しばしばハードワイヤで、通常不随意で、特定の言語に対して隠された表現的嗜好を示す。
偏りのある技術は、しばしば表現される言語の複雑さに不公平な研究・開発手法の結果であることを示す。
我々は,技術設計と方法論の両面から,言語バイアスを減らすことを目的とした新しいイニシアティブを提案する。
論文 参考訳(メタデータ) (2023-07-25T10:53:20Z) - A methodology to characterize bias and harmful stereotypes in natural
language processing in Latin America [2.05094736006609]
社会科学者、ドメインの専門家、機械学習の専門家が、単語の埋め込みや大きな言語モデルにおいて、バイアスや有害なステレオタイプを共同で探求する方法について説明している。
我々の方法論は以下の原則に基づいている。
論文 参考訳(メタデータ) (2022-07-14T01:07:55Z) - Color Overmodification Emerges from Data-Driven Learning and Pragmatic
Reasoning [53.088796874029974]
話者の指示表現は、実践的な言語使用の性質を照らし出すのに役立つ方法で、コミュニケーションイデアルから逸脱していることを示す。
ニューラルネットワークを学習エージェントとして採用することにより、過度な修正は、頻度の低い、あるいは正常な環境特性に結びつく可能性が高いことを示す。
論文 参考訳(メタデータ) (2022-05-18T18:42:43Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Quantifying Bias in Automatic Speech Recognition [28.301997555189462]
本稿では,オランダのsoma asrシステムの性別,年齢,地域アクセント,非母語アクセントに対するバイアスを定量化する。
本研究では,ASR開発におけるバイアス緩和戦略を提案する。
論文 参考訳(メタデータ) (2021-03-28T12:52:03Z) - Learning not to Discriminate: Task Agnostic Learning for Improving
Monolingual and Code-switched Speech Recognition [12.354292498112347]
本稿では、ドメイン逆学習を用いてタスクモデルを訓練することにより、これまでの作業よりもさらに改善する。
提案手法は,単語誤り率(WER)を3つの言語対に対して単言語およびコード切替テストセットで削減する。
論文 参考訳(メタデータ) (2020-06-09T13:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。