論文の概要: Assessing Multilingual Fairness in Pre-trained Multimodal
Representations
- arxiv url: http://arxiv.org/abs/2106.06683v1
- Date: Sat, 12 Jun 2021 03:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-19 23:22:36.035611
- Title: Assessing Multilingual Fairness in Pre-trained Multimodal
Representations
- Title(参考訳): 事前学習したマルチモーダル表現における多言語フェアネスの評価
- Authors: Jialu Wang, Yang Liu, Xin Eric Wang
- Abstract要約: 事前学習された視覚・言語表現は言語間で個別に公平であるが、グループフェアネスは保証されない。
我々は、人種、性別、年齢を含む言語と保護されたグループ間の集団格差を探索する実験を行う。
- 参考スコア(独自算出の注目度): 8.730027941735804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently pre-trained multimodal models, such as CLIP, have received a surge
of attention for their exceptional capabilities towards connecting images and
natural language. The textual representations in English can be desirably
transferred to multilingualism and support promising downstream multimodal
tasks for different languages. Nevertheless, previous fairness discourse in
vision-and-language learning mainly focuses on monolingual representational
biases, and rarely scrutinizes the principles of multilingual fairness in this
multimodal setting, where one language is equated to a group of individuals and
images provide the universal grounding for bridging different languages.
In this paper, we provide a nuanced understanding of individual fairness and
group fairness by viewing language as the recipient of fairness notions. We
define new fairness notions within multilingual context and analytically
articulate that, pre-trained vision-and-language representations are
individually fair across languages but not guaranteed to group fairness.
Furthermore, we conduct extensive experiments to explore the prevalent group
disparity across languages and protected groups including race, gender and age.
- Abstract(参考訳): 近年、CLIPのような事前訓練されたマルチモーダルモデルは、画像と自然言語を接続する特別な能力で注目を集めている。
英語のテキスト表現は、望ましくは多言語主義に移され、異なる言語のための下流のマルチモーダルタスクをサポートすることができる。
それにもかかわらず、視覚・言語学習における以前のフェアネス談話は主に単言語表現バイアスに焦点を当てており、このマルチモーダルな設定において多言語フェアネスの原則を精査することは滅多にない。
本稿では,個々人の公平さとグループフェアネスの微妙な理解を,言語を公平性の概念の受容者と見なすことによって提供する。
我々は,多言語文脈における新しいフェアネスの概念を定義し,事前学習された視覚・言語表現が言語間で個別に公平であるが,グループフェアネスが保証されないことを解析的に記述する。
さらに,言語間の集団格差や,人種,性別,年齢などの保護グループについて,広範な実験を行った。
関連論文リスト
- Exploring Multilingual Concepts of Human Value in Large Language Models: Is Value Alignment Consistent, Transferable and Controllable across Languages? [34.38469832305664]
本稿では,AIの安全性の重要性から,人間の価値観に関する概念(すなわち,価値の概念)に焦点を当てる。
我々はまず,LLMにおける価値概念の存在を多言語形式で実証的に確認した。
これらの概念の言語間特性に関するさらなる分析は、言語資源の相違から生じる3つの特徴を明らかにしている。
論文 参考訳(メタデータ) (2024-02-28T07:18:39Z) - RC3: Regularized Contrastive Cross-lingual Cross-modal Pre-training [84.23022072347821]
本稿では,弱整列型ビオテキスト入力の表現近接を制約する正規化言語間ビオテキストコントラスト学習目標を提案する。
6言語にまたがる5つの下流マルチモーダルタスクの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-13T14:41:05Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - UC2: Universal Cross-lingual Cross-modal Vision-and-Language
Pre-training [52.852163987208826]
UC2は、言語間クロスモーダル表現学習のための最初の機械翻訳拡張フレームワークである。
Masked Region-token Modeling (MRTM) と Visual Translation Language Modeling (VTLM) の2つの新しいプリトレーニングタスクを提案する。
提案手法は,英語タスクにおける単言語学習モデルと同等の性能を維持しつつ,多種多様な非英語ベンチマークで新たな最先端を実現する。
論文 参考訳(メタデータ) (2021-04-01T08:30:53Z) - M3P: Learning Universal Representations via Multitask Multilingual
Multimodal Pre-training [119.16007395162431]
M3Pは、多言語事前訓練と多言語事前訓練を組み合わせた多言語マルチモーダル事前訓練モデルである。
我々は,M3Pが英語に匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-06-04T03:54:29Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z) - Identifying Distributional Perspective Differences from Colingual Groups [41.58939666949895]
特定の価値観や出来事に対する視点に関する異なるグループ間での相互理解の欠如は、インフォームドな決定や偏見のない意見につながる可能性がある。
本研究では,コリンガル群を研究対象とし,言語コーパスをプロキシとして用いて分布的視点を同定する。
本稿では,共通理解を学習するための新しい計算手法を提案し,その手法を英語,中国語,日本語の文化的認識モデルの構築によって評価する。
論文 参考訳(メタデータ) (2020-04-10T08:13:07Z) - On the Language Neutrality of Pre-trained Multilingual Representations [70.93503607755055]
語彙意味論に関して,多言語文脈埋め込みの言語中立性を直接的に検討する。
その結果、文脈埋め込みは言語ニュートラルであり、概して静的な単語型埋め込みよりも情報的であることがわかった。
本稿では,言語識別における最先端の精度に到達し,並列文の単語アライメントのための統計的手法の性能を一致させる方法について述べる。
論文 参考訳(メタデータ) (2020-04-09T19:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。