論文の概要: Hypers at ComMA@ICON: Modelling Aggressiveness, Gender Bias and Communal
Bias Identification
- arxiv url: http://arxiv.org/abs/2112.15417v1
- Date: Fri, 31 Dec 2021 12:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 18:30:44.924019
- Title: Hypers at ComMA@ICON: Modelling Aggressiveness, Gender Bias and Communal
Bias Identification
- Title(参考訳): ComMA@ICONにおけるHypers: 攻撃性、ジェンダーバイアス、コミュニティバイアス識別のモデル化
- Authors: Sean Benhur, Roshan Nayak, Kanchana Sivanraju, Adeep Hande,
Subalalitha Chinnaudayar Navaneethakrishnan, Ruba Priyadharshini, Bharathi
Raja Chakravarthi6
- Abstract要約: 共有タスクComMA@ICONにおける作業のシステム記述について述べる。
我々は、その文がどれほど攻撃的であるかと、その文が性バイアスであるか、あるいは共同バイアスであるかを分類する必要がある。
ベンガル語で0.223のインスタンスF1スコア,ベンガル語で0.322のインスタンスF1スコア,マイタイ語で0.129のインスタンスF1スコア,ヒンディー語で0.336のインスタンスF1スコアでランク3を得ることができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the exponentially increasing reach of social media, it is essential to
focus on its negative aspects as it can potentially divide society and incite
people into violence. In this paper, we present our system description of work
on the shared task ComMA@ICON, where we have to classify how aggressive the
sentence is and if the sentence is gender-biased or communal biased. These
three could be the primary reasons to cause significant problems in society. As
team Hypers we have proposed an approach that utilizes different pretrained
models with Attention and mean pooling methods. We were able to get Rank 3 with
0.223 Instance F1 score on Bengali, Rank 2 with 0.322 Instance F1 score on
Multi-lingual set, Rank 4 with 0.129 Instance F1 score on Meitei and Rank 5
with 0.336 Instance F1 score on Hindi. The source code and the pretrained
models of this work can be found here.
- Abstract(参考訳): ソーシャルメディアの普及が急速に進んでいるため、社会を分裂させ、人々を暴力に陥れる可能性があるため、その否定的な側面に焦点を合わせることが不可欠である。
本稿では,共有タスクComMA@ICONにおける作業のシステム記述について述べる。そこでは,文章がいかに攻撃的であるか,文章が性バイアスであるか,あるいは共同バイアスであるかを分類する必要がある。
これら3つが社会に重大な問題を引き起こす主な原因である可能性がある。
チームhypersとして、注意力と平均プーリング方法を備えた、さまざまな事前学習モデルを使用するアプローチを提案しました。
ベンガル語で0.223のインスタンスF1スコア,ベンガル語で0.322のインスタンスF1スコア,マイタイ語で0.129のインスタンスF1スコア,ヒンディー語で0.336のインスタンスF1スコアでランク3を得ることができた。
この作業のソースコードと事前訓練されたモデルがここにある。
関連論文リスト
- The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test [68.84245853250906]
DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
本稿では,Paired Stereotype Test (PST) のバイアス評価フレームワークを提案する。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Hate Speech and Offensive Content Detection in Indo-Aryan Languages: A
Battle of LSTM and Transformers [0.0]
我々はベンガル語、アサメセ語、ボド語、シンハラ語、グジャラート語の5つの異なる言語でヘイトスピーチの分類を比較した。
Bert Base Multilingual Casedは、ベンガル語で0.67027得点、アサメ語で0.70525得点を達成した。
シンハラではXLM-RはF1スコア0.83493で際立っているが、グジャラティではF1スコア0.76601で照らされたカスタムLSTMベースのモデルである。
論文 参考訳(メタデータ) (2023-12-09T20:24:00Z) - The Tail Wagging the Dog: Dataset Construction Biases of Social Bias
Benchmarks [75.58692290694452]
社会的偏見と、データセット構築時に選択された選択から生じる非社会的偏見を比較し、人間の目では識別できないかもしれない。
これらの浅い修正は、様々なモデルにまたがるバイアスの程度に驚くべき影響を及ぼす。
論文 参考訳(メタデータ) (2022-10-18T17:58:39Z) - Improving Robust Fairness via Balance Adversarial Training [51.67643171193376]
対人訓練 (AT) 法は, 対人攻撃に対して有効であるが, 異なるクラス間での精度と頑健さの相違が激しい。
本稿では,頑健な公正性問題に対処するために,BAT(Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-09-15T14:44:48Z) - Intersectional Bias in Causal Language Models [0.0]
我々は,emphGPT-2およびemphGPT-NEOモデルについて検討した。
我々は、性別、宗教、障害の3つの社会的カテゴリを無条件またはゼロショットのプロンプトに組み合わせて実験を行う。
EmphGPTモデルを含む自己回帰因果モデルを用いて実施した先行試験を確認した。
論文 参考訳(メタデータ) (2021-07-16T03:46:08Z) - Unified Detection of Digital and Physical Face Attacks [61.6674266994173]
顔攻撃に対する最先端の防御メカニズムは、敵対的、デジタル操作、または物理的な偽装の3つの攻撃カテゴリのうちの1つでほぼ完璧な精度を達成します。
この3つのカテゴリに属する25のコヒーレントな攻撃タイプを自動的にクラスタリングできる統合攻撃検出フレームワーク(UniFAD)を提案する。
論文 参考訳(メタデータ) (2021-04-05T21:08:28Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - Divide and Conquer: An Ensemble Approach for Hostile Post Detection in
Hindi [25.723773314371947]
このタスクのデータは、twitterとfacebookから収集されたhindi devanagariスクリプトで提供される。
マルチラベルのマルチクラス分類問題であり、各データインスタンスは、偽物、憎悪、攻撃、中傷、非敵意の5つのクラスのうち1つまたはそれ以上にアノテートされる。
私たちのチーム「Albatross」は、ヒンディー語のサブタスクでHostile Post Detectionで0.9709粗末な敵意F1スコアを達成し、タスクのために45チーム中2位を確保しました。
論文 参考訳(メタデータ) (2021-01-20T05:38:07Z) - Walk in Wild: An Ensemble Approach for Hostility Detection in Hindi
Posts [3.9373541926236766]
我々は,事前学習したmBERTと,ニューラルネットワーク(ANN)やXGBoostなどの一般的な分類アルゴリズムに基づいて,ヒンディー語投稿の敵意検出のための簡単なアンサンブルモデルを構築した。
コンペティションの総合順位は0.969, 重み付きf1スコアは0.961で, それぞれ2段分類と多段分類タスクで3位であった。
論文 参考訳(メタデータ) (2021-01-15T07:49:27Z) - Automated Detection of Cyberbullying Against Women and Immigrants and
Cross-domain Adaptability [2.294014185517203]
本稿では,最先端のNLP技術を用いた技術の進歩に焦点を当てる。
SemEval 2019 - Task 5(HatEval)のTwitterデータセットを、女性や移民に対するヘイトスピーチに使用しています。
ヘイトスピーチの分類におけるF1スコアの0.73と0.74を達成した。
論文 参考訳(メタデータ) (2020-12-04T13:12:31Z) - Robustness May Be at Odds with Fairness: An Empirical Study on
Class-wise Accuracy [85.20742045853738]
CNNは敵の攻撃に弱いことが広く知られている。
本稿では,対人訓練モデルのクラスワイド精度とロバスト性に関する実証的研究を提案する。
トレーニングデータセットが各クラスに同じ数のサンプルを持つ場合でも,精度と堅牢性にはクラス間差があることが判明した。
論文 参考訳(メタデータ) (2020-10-26T06:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。