論文の概要: Gender Bias in Machine Translation
- arxiv url: http://arxiv.org/abs/2104.06001v1
- Date: Tue, 13 Apr 2021 08:09:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:34:45.784185
- Title: Gender Bias in Machine Translation
- Title(参考訳): 機械翻訳におけるジェンダーバイアス
- Authors: Beatrice Savoldi, Marco Gaido, Luisa Bentivogli, Matteo Negri, Marco
Turchi
- Abstract要約: 機械翻訳(mt)技術は,情報収集,詳細化,コミュニケーションのためのアクセス可能なショートカットを提供することで,日々の作業を容易にしてくれます。
MTにおけるジェンダーバイアスはまだ内部的な結束が欠けており、将来の研究を容易にするための統合フレームワークを提唱している。
- 参考スコア(独自算出の注目度): 14.955696163410254
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine translation (MT) technology has facilitated our daily tasks by
providing accessible shortcuts for gathering, elaborating and communicating
information. However, it can suffer from biases that harm users and society at
large. As a relatively new field of inquiry, gender bias in MT still lacks
internal cohesion, which advocates for a unified framework to ease future
research. To this end, we: i)critically review current conceptualizations of
bias in light of theoretical insights from related disciplines, ii) summarize
previous analyses aimed at assessing gender bias in MT, iii)discuss the
mitigating strategies proposed so far, and iv)point toward potential directions
for future work.
- Abstract(参考訳): 機械翻訳(mt)技術は,情報収集,詳細化,コミュニケーションのためのアクセス可能なショートカットを提供することで,日々の作業を容易にしてくれます。
しかし、ユーザーや社会全体に害を与える偏見に苦しむこともある。
比較的新しい調査分野として、mtのジェンダーバイアスは依然として内部結合性に欠けており、将来の研究を容易にする統一的な枠組みを提唱している。
この目的のために、i)現在のバイアス概念化を、関連する分野からの理論的洞察を踏まえて批判的にレビューする、ii)mtにおけるジェンダーバイアスの評価を目的とした以前の分析を要約する、iii)これまで提案されてきた緩和戦略を議論する、iv)将来の仕事の潜在的方向性に向けての視点。
関連論文リスト
- What the Harm? Quantifying the Tangible Impact of Gender Bias in Machine Translation with a Human-centered Study [18.464888281674806]
機械翻訳(MT)におけるジェンダーバイアスは、人や社会に害を与える問題として認識されている。
我々は、MTの偏見が具体的なコストにどの程度の損害をもたらすかを調べるために、広範囲にわたる人間中心の研究を行う。
論文 参考訳(メタデータ) (2024-10-01T09:38:34Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - Gender Bias in Machine Translation and The Era of Large Language Models [0.8702432681310399]
この章では、性バイアスの持続化における機械翻訳の役割について検討し、言語横断的な設定と統計的依存関係によって生じる課題を強調している。
従来のニューラルマシン翻訳手法と、機械翻訳システムとして使用される生成事前学習トランスフォーマモデルの両方において、ジェンダーバイアスに関連する既存の作業の概要を概観する。
論文 参考訳(メタデータ) (2024-01-18T14:34:49Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Gender Bias in Transformer Models: A comprehensive survey [1.1011268090482573]
人工知能(AI)におけるジェンダーバイアスは、個人の生活に深く影響する懸念として浮上している。
本稿では,トランスフォーマーモデルにおけるジェンダーバイアスを言語学的観点から調査する。
論文 参考訳(メタデータ) (2023-06-18T11:40:47Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Examining Covert Gender Bias: A Case Study in Turkish and English
Machine Translation Models [7.648784748888186]
我々は,機械翻訳モデルにおいて,過剰性差と隠蔽性バイアスの両方の症例について検討した。
具体的には、非対称性マーキングを調査する手法を提案する。
また、人格の属性の偏りを評価し、職業的・人格的ステレオタイプについて検討する。
論文 参考訳(メタデータ) (2021-08-23T19:25:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。