論文の概要: GOSt-MT: A Knowledge Graph for Occupation-related Gender Biases in Machine Translation
- arxiv url: http://arxiv.org/abs/2409.10989v1
- Date: Tue, 17 Sep 2024 08:44:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 17:28:59.437916
- Title: GOSt-MT: A Knowledge Graph for Occupation-related Gender Biases in Machine Translation
- Title(参考訳): GOSt-MT: 機械翻訳における作業関連性バイアスの知識グラフ
- Authors: Orfeas Menis Mastromichalakis, Giorgos Filandrianos, Eva Tsouparopoulou, Dimitris Parsanoglou, Maria Symeonaki, Giorgos Stamou,
- Abstract要約: 機械翻訳(MT)システムにおけるジェンダーバイアスは、しばしば有害なステレオタイプを補強する重大な課題を引き起こす。
本稿では,GOSt-MTナレッジグラフの作成を通じて,職業関連性バイアスを研究する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 2.3154290513589784
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gender bias in machine translation (MT) systems poses significant challenges that often result in the reinforcement of harmful stereotypes. Especially in the labour domain where frequently occupations are inaccurately associated with specific genders, such biases perpetuate traditional gender stereotypes with a significant impact on society. Addressing these issues is crucial for ensuring equitable and accurate MT systems. This paper introduces a novel approach to studying occupation-related gender bias through the creation of the GOSt-MT (Gender and Occupation Statistics for Machine Translation) Knowledge Graph. GOSt-MT integrates comprehensive gender statistics from real-world labour data and textual corpora used in MT training. This Knowledge Graph allows for a detailed analysis of gender bias across English, French, and Greek, facilitating the identification of persistent stereotypes and areas requiring intervention. By providing a structured framework for understanding how occupations are gendered in both labour markets and MT systems, GOSt-MT contributes to efforts aimed at making MT systems more equitable and reducing gender biases in automated translations.
- Abstract(参考訳): 機械翻訳(MT)システムにおけるジェンダーバイアスは、しばしば有害なステレオタイプを補強する重大な課題を引き起こす。
特に、職業が特定の性別と不正確な関係にある労働領域では、そのような偏見は伝統的なジェンダーのステレオタイプを持続させ、社会に大きな影響を及ぼす。
これらの問題に対処することは、公平かつ正確なMTシステムの確保に不可欠である。
本稿では, GOSt-MT (Gender and Occupation Statistics for Machine Translation) Knowledge Graph の作成を通じて, 職業関連性バイアスを研究するための新しい手法を提案する。
GOSt-MTは、MTトレーニングで使用される実世界の労働データとテキストコーパスからの包括的性別統計を統合している。
この知識グラフは、英語、フランス語、ギリシア語にまたがる男女バイアスの詳細な分析を可能にし、永続的なステレオタイプと介入を必要とする領域の同定を容易にする。
GOSt-MTは、労働市場とMTシステムの両方でどのように職業がジェンダー化されているかを理解するための構造化された枠組みを提供することによって、MTシステムをより公平にし、自動翻訳における性別バイアスを減らすことを目的とした取り組みに貢献している。
関連論文リスト
- Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - What the Harm? Quantifying the Tangible Impact of Gender Bias in Machine Translation with a Human-centered Study [18.464888281674806]
機械翻訳(MT)におけるジェンダーバイアスは、人や社会に害を与える問題として認識されている。
我々は、MTの偏見が具体的なコストにどの程度の損害をもたらすかを調べるために、広範囲にわたる人間中心の研究を行う。
論文 参考訳(メタデータ) (2024-10-01T09:38:34Z) - Generating Gender Alternatives in Machine Translation [13.153018685139413]
機械翻訳システムは、あいまいな性別の用語を、システムのトレーニングデータに最もよく見られる性別の形式に翻訳することが多い。
これはしばしば社会に存在する有害なステレオタイプを反映し永続する。
文法的に正しいジェンダー変換の代案を全て生成する問題について検討する。
論文 参考訳(メタデータ) (2024-07-29T22:10:51Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - A Tale of Pronouns: Interpretability Informs Gender Bias Mitigation for
Fairer Instruction-Tuned Machine Translation [35.44115368160656]
機械翻訳モデルがジェンダーバイアスを示すか否かについて検討する。
We found that IFT model default to male-inflected translations, evengarding female occupational stereotypes。
実装が容易で効果的なバイアス緩和ソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-18T17:36:55Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Examining Covert Gender Bias: A Case Study in Turkish and English
Machine Translation Models [7.648784748888186]
我々は,機械翻訳モデルにおいて,過剰性差と隠蔽性バイアスの両方の症例について検討した。
具体的には、非対称性マーキングを調査する手法を提案する。
また、人格の属性の偏りを評価し、職業的・人格的ステレオタイプについて検討する。
論文 参考訳(メタデータ) (2021-08-23T19:25:56Z) - Extending Challenge Sets to Uncover Gender Bias in Machine Translation:
Impact of Stereotypical Verbs and Adjectives [0.45687771576879593]
State-of-the-art Machine Translation (MT)システムは、主に人間が生成する大量のテキストコーパスに基づいて訓練されている。
近年の研究では、MTシステムは職業のステレオタイプ翻訳に偏っていることが示されている。
本稿では, ジェンダーバイアスのある形容詞と, ジェンダーバイアスのある動詞を含む文を付加した WiBeMT という課題集合の拡張について述べる。
論文 参考訳(メタデータ) (2021-07-24T11:22:10Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。