論文の概要: GFG -- Gender-Fair Generation: A CALAMITA Challenge
- arxiv url: http://arxiv.org/abs/2412.19168v1
- Date: Thu, 26 Dec 2024 10:58:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:07.154115
- Title: GFG -- Gender-Fair Generation: A CALAMITA Challenge
- Title(参考訳): GFGのジェンダーフェアジェネレーション:カラミタの挑戦
- Authors: Simona Frenda, Andrea Piergentili, Beatrice Savoldi, Marco Madeddu, Martina Rosola, Silvia Casola, Chiara Ferrando, Viviana Patti, Matteo Negri, Luisa Bentivogli,
- Abstract要約: ジェンダーフェア言語は、すべてのアイデンティティを含む用語と表現を使用することで、男女平等を促進することを目的としている。
ジェンダー・フェア・ジェネレーションの課題は、書面コミュニケーションにおけるジェンダー・フェア言語へのシフトを支援することである。
- 参考スコア(独自算出の注目度): 15.399739689743935
- License:
- Abstract: Gender-fair language aims at promoting gender equality by using terms and expressions that include all identities and avoid reinforcing gender stereotypes. Implementing gender-fair strategies is particularly challenging in heavily gender-marked languages, such as Italian. To address this, the Gender-Fair Generation challenge intends to help shift toward gender-fair language in written communication. The challenge, designed to assess and monitor the recognition and generation of gender-fair language in both mono- and cross-lingual scenarios, includes three tasks: (1) the detection of gendered expressions in Italian sentences, (2) the reformulation of gendered expressions into gender-fair alternatives, and (3) the generation of gender-fair language in automatic translation from English to Italian. The challenge relies on three different annotated datasets: the GFL-it corpus, which contains Italian texts extracted from administrative documents provided by the University of Brescia; GeNTE, a bilingual test set for gender-neutral rewriting and translation built upon a subset of the Europarl dataset; and Neo-GATE, a bilingual test set designed to assess the use of non-binary neomorphemes in Italian for both fair formulation and translation tasks. Finally, each task is evaluated with specific metrics: average of F1-score obtained by means of BERTScore computed on each entry of the datasets for task 1, an accuracy measured with a gender-neutral classifier, and a coverage-weighted accuracy for tasks 2 and 3.
- Abstract(参考訳): ジェンダーフェア言語は、すべてのアイデンティティを含む用語と表現を使用することでジェンダー平等を促進することを目的としており、ジェンダーステレオタイプの強化を避ける。
ジェンダーフェア戦略の実装は、特にイタリア語など、性別が重くマークされた言語では困難である。
これを解決するために、ジェンダー・フェア・ジェネレーション・チャレンジは、書面コミュニケーションにおけるジェンダー・フェア言語へのシフトを支援することを目的としている。
この課題は,(1)イタリア語文における性表現の検出,(2)性表現のジェンダーフェア代替語への再編成,(3)英語からイタリア語への自動翻訳におけるジェンダーフェア言語の生成,という3つの課題を含む。
GFL-itコーパスはブレシア大学によって提供された管理文書から抽出されたイタリア語のテキストを含み、GeNTEはユーロパールデータセットのサブセット上に構築された性中立的な書き直しと翻訳のためのバイリンガルテストセットであり、Neo-GATEはイタリア語における二項新態体の使用を公正な定式化と翻訳作業の両方のために評価するために設計されたバイリンガルテストセットである。
最後に、各タスクは、タスク1のデータセットの各エントリで計算されたBERTScoreによって得られるF1スコアの平均、性別中立の分類器で測定された精度、タスク2,3のカバレッジ重み付き精度など、特定のメトリクスで評価される。
関連論文リスト
- GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Leveraging Large Language Models to Measure Gender Representation Bias in Gendered Language Corpora [9.959039325564744]
テキストコーパスにおけるジェンダーバイアスは、社会的不平等の永続性と増幅につながる可能性がある。
テキストコーパスにおけるジェンダー表現バイアスを計測する既存の手法は、主に英語で提案されている。
本稿では,スペインのコーパスにおけるジェンダー表現バイアスを定量的に測定する手法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:30:58Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - MT-GenEval: A Counterfactual and Contextual Dataset for Evaluating
Gender Accuracy in Machine Translation [18.074541317458817]
MT-GenEvalは、英語から8言語への翻訳における性別の精度を評価するためのベンチマークである。
私たちのデータとコードは、CC BY SA 3.0ライセンスの下で公開されています。
論文 参考訳(メタデータ) (2022-11-02T17:55:43Z) - Analyzing Gender Representation in Multilingual Models [59.21915055702203]
実践的なケーススタディとして,ジェンダーの区別の表現に焦点をあてる。
ジェンダーの概念が、異なる言語で共有された部分空間にエンコードされる範囲について検討する。
論文 参考訳(メタデータ) (2022-04-20T00:13:01Z) - Easy Adaptation to Mitigate Gender Bias in Multilingual Text
Classification [8.137681060429527]
ジェンダーをドメインとして扱い、標準領域適応モデルを示し、ジェンダーバイアスを低減する。
ヘイトスピーチ検出とレーティング予測という2つのテキスト分類タスクに対するアプローチを評価し,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2022-04-12T01:15:36Z) - GENder-IT: An Annotated English-Italian Parallel Challenge Set for
Cross-Linguistic Natural Gender Phenomena [2.4366811507669124]
gENder-ITは、自然のジェンダー現象の解決に焦点を当てた、英語とイタリア語の課題セットである。
英語のソース側には単語レベルのジェンダータグ、イタリア語のターゲット側には翻訳が必要な複数のジェンダータグを提供する。
論文 参考訳(メタデータ) (2021-08-05T21:08:45Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。