論文の概要: Participatory Research as a Path to Community-Informed, Gender-Fair
Machine Translation
- arxiv url: http://arxiv.org/abs/2306.08906v1
- Date: Thu, 15 Jun 2023 07:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 16:14:37.388999
- Title: Participatory Research as a Path to Community-Informed, Gender-Fair
Machine Translation
- Title(参考訳): コミュニティインフォームド・ジェンダーフェア機械翻訳への道としての参加研究
- Authors: Dagmar Gromann, Manuel Lardelli, Katta Spiel, Sabrina Burtscher, Lukas
Daniel Klausner, Arthur Mettinger, Igor Miladinovic, Sigrid Schefer-Wenzl,
Daniela Duh, Katharina B\"uhn
- Abstract要約: 本稿では、クイア人や非バイナリ人、翻訳者、MT専門家を含む参加型行動研究のための方法とケーススタディを提案する。
ケーススタディは、アイデンティティの無効化を避けるためにコンテキスト依存の重要性が中心的な発見であるドイツに焦点を当てている。
- 参考スコア(独自算出の注目度): 19.098548371499678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a strongly increased visibility of non-binary people
in public discourse. Accordingly, considerations of gender-fair language go
beyond a binary conception of male/female. However, language technology,
especially machine translation (MT), still suffers from binary gender bias.
Proposing a solution for gender-fair MT beyond the binary from a purely
technological perspective might fall short to accommodate different target user
groups and in the worst case might lead to misgendering. To address this
challenge, we propose a method and case study building on participatory action
research to include experiential experts, i.e., queer and non-binary people,
translators, and MT experts, in the MT design process. The case study focuses
on German, where central findings are the importance of context dependency to
avoid identity invalidation and a desire for customizable MT solutions.
- Abstract(参考訳): 近年、公共の場では非バイナリの人々の視認性が強くなっている。
したがって、ジェンダー・フェア言語の考慮は、男性/女性という二元概念を越えている。
しかし、言語技術、特に機械翻訳(MT)はまだ二分性バイアスに悩まされている。
純粋に技術的観点から、男女平等のMTの解決策をバイナリを超えて提案することは、異なるターゲットのユーザーグループに対応するために不足する可能性がある。
そこで本研究では,mt設計プロセスにおいて,経験的専門家,すなわちクィアと非バイナリの人々,翻訳者,およびmtの専門家を含む参加行動研究の手法と事例スタディを提案する。
ケーススタディでは、識別の無効化を避けるためのコンテキスト依存の重要性と、カスタマイズ可能なMTソリューションへの欲求が注目されている。
関連論文リスト
- Generating Gender Alternatives in Machine Translation [13.153018685139413]
機械翻訳システムは、あいまいな性別の用語を、システムのトレーニングデータに最もよく見られる性別の形式に翻訳することが多い。
これはしばしば社会に存在する有害なステレオタイプを反映し永続する。
文法的に正しいジェンダー変換の代案を全て生成する問題について検討する。
論文 参考訳(メタデータ) (2024-07-29T22:10:51Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Building Bridges: A Dataset for Evaluating Gender-Fair Machine Translation into German [17.924716793621627]
英独機械翻訳(MT)におけるジェンダーフェア言語の研究
2つの商用システムと6つのニューラルMTモデルを含む最初のベンチマーク研究を行う。
以上の結果から,ほとんどのシステムでは男性型が主流であり,性別ニュートラル変種は稀である。
論文 参考訳(メタデータ) (2024-06-10T09:39:19Z) - Tokenization Matters: Navigating Data-Scarce Tokenization for Gender Inclusive Language Technologies [75.85462924188076]
ジェンダー非包括的NLP研究は、ジェンダーバイナリ中心大言語モデル(LLM)の有害な制限を文書化している。
誤認識はByte-Pair(BPE)トークン化によって大きく影響されている。
本研究では,(1)代名詞の代名詞化パリティ,(2)代名詞間の一貫した代名詞化を強制する手法,および(2)既存のLLM代名詞の知識を活用して新代名詞の習熟度を向上させる手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T01:28:46Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender, names and other mysteries: Towards the ambiguous for
gender-inclusive translation [7.322734499960981]
本稿では,元文が明示的なジェンダーマーカーを欠いている場合について考察するが,目的文はより豊かな文法的ジェンダーによってそれらを含む。
MTデータ中の多くの名前と性別の共起は、ソース言語の「あいまいな性別」で解決できないことがわかった。
ジェンダー・インクルージョンの両面での曖昧さを受け入れるジェンダー・インクルージョン・トランスフォーメーションの可能性について論じる。
論文 参考訳(メタデータ) (2023-06-07T16:21:59Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Gender Neutralization for an Inclusive Machine Translation: from
Theoretical Foundations to Open Challenges [11.37307883423629]
我々は,ジェンダー・ニュートラル・トランスフォーメーション(GNT)をジェンダー・インクリシティーの一形態として検討し,マシン・トランスフォーメーション(MT)モデルによって達成される目標について検討する。
具体的には、ジェンダー関連言語移行問題を表す言語対である、英語からイタリア語への翻訳に焦点を当てる。
論文 参考訳(メタデータ) (2023-01-24T15:26:36Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。