論文の概要: Overcoming Language Disparity in Online Content Classification with
Multimodal Learning
- arxiv url: http://arxiv.org/abs/2205.09744v1
- Date: Thu, 19 May 2022 17:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-20 14:49:24.774647
- Title: Overcoming Language Disparity in Online Content Classification with
Multimodal Learning
- Title(参考訳): マルチモーダル学習によるオンラインコンテンツ分類における言語格差の克服
- Authors: Gaurav Verma, Rohit Mujumdar, Zijie J. Wang, Munmun De Choudhury,
Srijan Kumar
- Abstract要約: 大規模言語モデルは、テキスト検出と分類タスクのための最先端のソリューションを開発するための標準となっている。
高度な計算技術と資源の開発は、英語に不相応に焦点が当てられている。
マルチモーダル機械学習を用いて画像に含まれる情報を統合するという約束を探求する。
- 参考スコア(独自算出の注目度): 22.73281502531998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in Natural Language Processing (NLP) have revolutionized the way
researchers and practitioners address crucial societal problems. Large language
models are now the standard to develop state-of-the-art solutions for text
detection and classification tasks. However, the development of advanced
computational techniques and resources is disproportionately focused on the
English language, sidelining a majority of the languages spoken globally. While
existing research has developed better multilingual and monolingual language
models to bridge this language disparity between English and non-English
languages, we explore the promise of incorporating the information contained in
images via multimodal machine learning. Our comparative analyses on three
detection tasks focusing on crisis information, fake news, and emotion
recognition, as well as five high-resource non-English languages, demonstrate
that: (a) detection frameworks based on pre-trained large language models like
BERT and multilingual-BERT systematically perform better on the English
language compared against non-English languages, and (b) including images via
multimodal learning bridges this performance gap. We situate our findings with
respect to existing work on the pitfalls of large language models, and discuss
their theoretical and practical implications. Resources for this paper are
available at https://multimodality-language-disparity.github.io/.
- Abstract(参考訳): 自然言語処理(NLP)の進歩は、研究者や実践者が重要な社会問題に対処する方法に革命をもたらした。
大規模言語モデルは、テキスト検出と分類タスクのための最先端ソリューションを開発するための標準となっている。
しかし、先進的な計算技術と資源の発展は英語に不釣り合いに焦点を合わせており、世界の言語の大半を横に並べている。
既存の研究は、英語と非英語の言語格差を橋渡しするために、より優れた多言語言語モデルと単言語言語モデルを開発したが、マルチモーダル機械学習によって画像に含まれる情報を統合するという約束を探求する。
危機情報、偽ニュース、感情認識に焦点をあてた3つの検出課題と5つの高資源非英語言語の比較分析を行った。
(a) BERT や Multilingual-BERT のような事前学習された大規模言語モデルに基づく検出フレームワークは、非英語と比較して、体系的に英語において優れた性能を発揮する。
(b)マルチモーダル学習による画像を含むと、この性能ギャップを橋渡しする。
本稿では,大規模言語モデルの落とし穴に関する既存の研究について考察し,その理論的および実践的意義について考察する。
この論文のリソースはhttps://multimodality-language-disparity.github.io/で入手できる。
関連論文リスト
- Lens: Rethinking Multilingual Enhancement for Large Language Models [70.85065197789639]
Lensは、大規模言語モデル(LLM)の多言語機能を強化する新しいアプローチである
LLMの上位層から言語に依存しない、言語固有のサブ空間内の隠された表現を操作できる。
既存のポストトレーニング手法に比べて計算資源がはるかに少ないため、優れた結果が得られる。
論文 参考訳(メタデータ) (2024-10-06T08:51:30Z) - ColBERT-XM: A Modular Multi-Vector Representation Model for Zero-Shot
Multilingual Information Retrieval [10.664434993386523]
現在のアプローチは、非英語言語における高品質なラベル付きデータの欠如を回避している。
本稿では,単一の高リソース言語のリッチデータから学習するモジュール型高密度検索モデルを提案する。
論文 参考訳(メタデータ) (2024-02-23T02:21:24Z) - xCoT: Cross-lingual Instruction Tuning for Cross-lingual
Chain-of-Thought Reasoning [36.34986831526529]
CoT(Chain-of-Thought)は、大規模言語モデルにおける推論を誘発する強力なテクニックとして登場した。
本稿では,ハイソース言語から低リソース言語へ知識を伝達するための言語間命令微調整フレームワーク(xCOT)を提案する。
論文 参考訳(メタデータ) (2024-01-13T10:53:53Z) - Towards Bridging the Digital Language Divide [4.234367850767171]
多言語言語処理システムは、しばしばハードワイヤで、通常不随意で、特定の言語に対して隠された表現的嗜好を示す。
偏りのある技術は、しばしば表現される言語の複雑さに不公平な研究・開発手法の結果であることを示す。
我々は,技術設計と方法論の両面から,言語バイアスを減らすことを目的とした新しいイニシアティブを提案する。
論文 参考訳(メタデータ) (2023-07-25T10:53:20Z) - On the cross-lingual transferability of multilingual prototypical models
across NLU tasks [2.44288434255221]
教師付きディープラーニングベースのアプローチはタスク指向のダイアログに適用され、限られたドメインや言語アプリケーションに有効であることが証明されている。
実際には、これらのアプローチはドメイン駆動設計とアンダーリソース言語の欠点に悩まされている。
本稿では,原型ニューラルネットワークと多言語トランスフォーマーモデルを用いた相乗的少数ショット学習の言語間変換可能性について検討する。
論文 参考訳(メタデータ) (2022-07-19T09:55:04Z) - A Survey of Multilingual Models for Automatic Speech Recognition [6.657361001202456]
言語間移動は多言語自動音声認識の課題に対する魅力的な解法である。
自己監督学習の最近の進歩は、多言語ASRモデルで使用されるラベルなし音声データへの道を開いた。
多様な言語や技術の研究から多言語モデルを構築するためのベストプラクティスを提示する。
論文 参考訳(メタデータ) (2022-02-25T09:31:40Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Reinforced Iterative Knowledge Distillation for Cross-Lingual Named
Entity Recognition [54.92161571089808]
言語間NERは、知識をリッチリソース言語から低リソース言語に転送する。
既存の言語間NERメソッドは、ターゲット言語でリッチなラベル付けされていないデータをうまく利用しない。
半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発する。
論文 参考訳(メタデータ) (2021-06-01T05:46:22Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Crossing the Conversational Chasm: A Primer on Multilingual
Task-Oriented Dialogue Systems [51.328224222640614]
大規模な学習済みニューラルネットワークモデルに基づく最新のTODモデルは、データ空腹です。
ToDのユースケースのデータ取得は高価で面倒だ。
論文 参考訳(メタデータ) (2021-04-17T15:19:56Z) - XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating
Cross-lingual Generalization [128.37244072182506]
言語間TRansfer Evaluation of Multilinguals XTREMEは、40言語および9タスクにわたる多言語表現の言語間一般化能力を評価するためのベンチマークである。
我々は、英語でテストされたモデルは、多くのタスクにおいて人間のパフォーマンスに達するが、言語間変換されたモデルの性能にはまだ大きなギャップがあることを示した。
論文 参考訳(メタデータ) (2020-03-24T19:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。