論文の概要: LUC at ComMA-2021 Shared Task: Multilingual Gender Biased and Communal
Language Identification without using linguistic features
- arxiv url: http://arxiv.org/abs/2112.10189v1
- Date: Sun, 19 Dec 2021 16:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 05:12:50.154359
- Title: LUC at ComMA-2021 Shared Task: Multilingual Gender Biased and Communal
Language Identification without using linguistic features
- Title(参考訳): 英語) LUC at ComMA-2021 Shared Task: Multilingual Gender Biased and Communal Language Identification without using language features (英語)
- Authors: Rodrigo Cu\'ellar-Hidalgo, Julio de Jes\'us Guerrero-Zambrano, Dominic
Forest, Gerardo Reyes-Salgado, Juan-Manuel Torres-Moreno
- Abstract要約: 本研究の目的は、確率的かつ最先端のベクトル空間モデリング(VSM)手法が、攻撃的、偏見的、あるいは共用的に分類されるソーシャルネットワーク文書を識別する能力を評価することである。
これらのシステムはComMA@ICON'21 Workshop on Multilingual Gender Biased and Communal Language Identificationのコンペティションに提出された。
- 参考スコア(独自算出の注目度): 1.5049442691806052
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work aims to evaluate the ability that both probabilistic and
state-of-the-art vector space modeling (VSM) methods provide to well known
machine learning algorithms to identify social network documents to be
classified as aggressive, gender biased or communally charged. To this end, an
exploratory stage was performed first in order to find relevant settings to
test, i.e. by using training and development samples, we trained multiple
algorithms using multiple vector space modeling and probabilistic methods and
discarded the less informative configurations. These systems were submitted to
the competition of the ComMA@ICON'21 Workshop on Multilingual Gender Biased and
Communal Language Identification.
- Abstract(参考訳): この研究の目的は、確率的かつ最先端のベクトル空間モデリング(VSM)手法がよく知られた機械学習アルゴリズムに、攻撃的、性別に偏った、あるいは共用的に分類されるソーシャルネットワーク文書を特定する能力を評価することである。
この目的のために、まず、トレーニングと開発サンプルを用いて、複数のベクトル空間モデリングと確率的手法を用いて複数のアルゴリズムを訓練し、より情報に乏しい構成を破棄するため、探索段階が実行された。
これらのシステムはComMA@ICON'21 Workshop on Multilingual Gender Biased and Communal Language Identificationのコンペティションに提出された。
関連論文リスト
- Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Hierarchical Classification of Transversal Skills in Job Ads Based on
Sentence Embeddings [0.0]
本稿では,求人広告要件とスキルセットの相関関係をディープラーニングモデルを用いて同定することを目的とする。
このアプローチには、ESCO(European Skills, Competences, Occupations)分類を使用したデータ収集、事前処理、ラベル付けが含まれる。
論文 参考訳(メタデータ) (2024-01-10T11:07:32Z) - Efficient Spoken Language Recognition via Multilabel Classification [53.662747523872305]
我々のモデルは,現在の最先端手法よりも桁違いに小さく,高速でありながら,競争力のある結果が得られることを示す。
我々のマルチラベル戦略は、マルチクラス分類よりも非ターゲット言語の方が堅牢である。
論文 参考訳(メタデータ) (2023-06-02T23:04:19Z) - USTC-NELSLIP at SemEval-2023 Task 2: Statistical Construction and Dual
Adaptation of Gazetteer for Multilingual Complex NER [36.39635200544498]
本稿では,SemEval-2023 Task 2 Multilingual Complex Named Entity Recognition (MultiCoNER II)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
提案手法はWikidata で構築したガゼッタを用いて XLM-R に適用され,様々なトラックにまたがる高度な一般化能力を示す。
論文 参考訳(メタデータ) (2023-05-04T03:00:46Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - OCHADAI at SemEval-2022 Task 2: Adversarial Training for Multilingual
Idiomaticity Detection [4.111899441919165]
文が慣用的表現を含むか否かを判定する多言語逆行訓練モデルを提案する。
我々のモデルは、異なる多言語変換言語モデルからの事前学習された文脈表現に依存している。
論文 参考訳(メタデータ) (2022-06-07T05:52:43Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - A Hierarchical Model for Spoken Language Recognition [29.948719321162883]
音声言語認識(SLR)とは、音声サンプルに含まれる言語を決定するための自動処理である。
本稿では,2つのPLDAモデルを訓練し,その1つは高関係言語クラスタのスコアを生成し,もう1つは各クラスタに条件付きスコアを生成するという新しい階層的アプローチを提案する。
この階層的アプローチは、高度に関連性の高い言語を検出する非階層的アプローチよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-01-04T22:10:36Z) - Communication-Efficient Agnostic Federated Averaging [39.761808414613185]
分散学習の設定では、トレーニングアルゴリズムは異なるクライアントに対してバイアスされる可能性がある。
我々は,Mohriらが開発したドメインに依存しない目的を最小化するために,Agnostic Federated Averaging(AgnosticFedAvg)と呼ばれる通信効率の高い分散アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-06T19:01:18Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。