論文の概要: How Effectively Can BERT Models Interpret Context and Detect Bengali Communal Violent Text?
- arxiv url: http://arxiv.org/abs/2506.19831v1
- Date: Tue, 24 Jun 2025 17:48:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.7574
- Title: How Effectively Can BERT Models Interpret Context and Detect Bengali Communal Violent Text?
- Title(参考訳): BERTモデルによるベンガル文字の文脈解釈と検出は, どの程度有効か?
- Authors: Abdullah Khondoker, Enam Ahmed Taufik, Md. Iftekhar Islam Tashik, S M Ishtiak Mahmud, Farig Sadeque,
- Abstract要約: 既存の研究では、コミュニティの暴力的な文章は未発見の領域として残されている。
本稿では,このタスクに適した微調整BanglaBERTモデルを導入し,マクロF1スコア0.60を達成した。
このアンサンブルモデルでは性能が向上し、マクロF1スコアは0.63となった。
- 参考スコア(独自算出の注目度): 0.3029213689620348
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The spread of cyber hatred has led to communal violence, fueling aggression and conflicts between various religious, ethnic, and social groups, posing a significant threat to social harmony. Despite its critical importance, the classification of communal violent text remains an underexplored area in existing research. This study aims to enhance the accuracy of detecting text that incites communal violence, focusing specifically on Bengali textual data sourced from social media platforms. We introduce a fine-tuned BanglaBERT model tailored for this task, achieving a macro F1 score of 0.60. To address the issue of data imbalance, our dataset was expanded by adding 1,794 instances, which facilitated the development and evaluation of a fine-tuned ensemble model. This ensemble model demonstrated an improved performance, achieving a macro F1 score of 0.63, thus highlighting its effectiveness in this domain. In addition to quantitative performance metrics, qualitative analysis revealed instances where the models struggled with context understanding, leading to occasional misclassifications, even when predictions were made with high confidence. Through analyzing the cosine similarity between words, we identified certain limitations in the pre-trained BanglaBERT models, particularly in their ability to distinguish between closely related communal and non-communal terms. To further interpret the model's decisions, we applied LIME, which helped to uncover specific areas where the model struggled in understanding context, contributing to errors in classification. These findings highlight the promise of NLP and interpretability tools in reducing online communal violence. Our work contributes to the growing body of research in communal violence detection and offers a foundation for future studies aiming to refine these techniques for better accuracy and societal impact.
- Abstract(参考訳): サイバー憎しみの拡散は、社会的な暴力を引き起こし、様々な宗教的、民族的、社会的な集団間の攻撃と紛争を引き起こし、社会的な調和に重大な脅威をもたらした。
その重要な重要性にもかかわらず、共同の暴力的テキストの分類は、既存の研究において未発見の領域として残されている。
本研究の目的は,ソーシャルメディアプラットフォームから得られるベンガル文字データに着目し,共同暴力を誘発するテキストの検出精度を高めることである。
本稿では,このタスクに適した微調整BanglaBERTモデルを導入し,マクロF1スコア0.60を達成した。
データ不均衡の問題に対処するため、データセットを1,794個のインスタンスを追加して拡張し、微調整アンサンブルモデルの開発と評価を容易にした。
このアンサンブルモデルでは性能が向上し、マクロF1スコアは0.63となった。
定量的なパフォーマンス指標に加えて、定性的分析により、モデルが文脈理解に苦しむ事例が明らかになった。
単語間のコサイン類似性を解析することにより、事前訓練されたBanglaBERTモデルの特定の制限、特に近縁なコミュニケーション用語と非コミュニケーション用語を区別する能力を特定した。
モデルの判断をさらに解釈するために、LIMEを適用し、モデルが理解に苦しんだ特定の領域を明らかにするのに役立ち、分類におけるエラーに寄与した。
これらの知見は、NLPと解釈可能性ツールがオンライン共謀暴力を減らすことの可能性を浮き彫りにしている。
我々の研究は、共同暴力検出における研究の進展に寄与し、これらの技術をより正確かつ社会的な影響のために洗練することを目的とした将来の研究の基盤を提供する。
関連論文リスト
- CL-ISR: A Contrastive Learning and Implicit Stance Reasoning Framework for Misleading Text Detection on Social Media [0.5999777817331317]
本稿では,ソーシャルメディア上の誤解を招くテキストの検出精度を向上させるために,CL-ISR(Contrastive Learning and Implicit Stance Reasoning)を提案する。
まず,比較学習アルゴリズムを用いて,真偽と誤解を招くテキスト間の意味的差異の学習能力を向上させる。
第2に、テキストにおける潜在的姿勢傾向とその関連トピックとの関係を探るため、暗黙的姿勢推論モジュールを導入する。
論文 参考訳(メタデータ) (2025-06-05T14:52:28Z) - Benchmarking the Spatial Robustness of DNNs via Natural and Adversarial Localized Corruptions [49.546479320670464]
本稿では,セグメンテーションモデルの空間的ロバスト性を評価するための特別な指標を紹介する。
本稿では,モデルロバスト性をより深く理解する手法として,地域対応型マルチアタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック・アタック分析を提案する。
その結果、モデルがこれらの2種類の脅威に異なる反応を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-04-02T11:37:39Z) - Adversarial Alignment for LLMs Requires Simpler, Reproducible, and More Measurable Objectives [52.863024096759816]
相反する研究目的は、過去10年間に敵対的堅牢性研究の進展を妨げてきた。
我々は、対立するアライメントの有意義な進展には、リアライメントの目的が必要であると論じる。
論文 参考訳(メタデータ) (2025-02-17T15:28:40Z) - Unpacking the Resilience of SNLI Contradiction Examples to Attacks [0.38366697175402226]
我々は,モデルの脆弱性を調べるためにユニバーサル・アドバイサル・アタックを適用した。
分析の結果,含意クラスと中性クラスの精度は著しく低下した。
逆例のある拡張データセット上でモデルを微調整することで、その性能はほぼベースラインレベルに回復した。
論文 参考訳(メタデータ) (2024-12-15T12:47:28Z) - Prompting or Fine-tuning? Exploring Large Language Models for Causal Graph Validation [0.0]
本研究では,因果グラフの因果性を評価するための大規模言語モデルの有用性について検討する。
本研究では,(1)ゼロショットと少数ショットの因果推論のためのプロンプトベース手法,(2)因果関係予測タスクのための微調整言語モデルの比較を行った。
論文 参考訳(メタデータ) (2024-05-29T09:06:18Z) - Mapping Violence: Developing an Extensive Framework to Build a Bangla Sectarian Expression Dataset from Social Media Interactions [1.2618555186247333]
オンラインバングラコンテンツにおける共犯マーカーの自動検出のための,初の包括的枠組みを開発した。
私たちのワークフローでは、社会科学者、言語学者、心理学者の洞察を取り入れた7段階の専門家アノテーションプロセスを導入しています。
このデータセットを用いてデータ統計とベンチマーク性能を提示することにより、非コミュニケーション暴力のカテゴリ以外では、リグリゴ・コミュニティ暴力は特にバングラ文字で広く普及していると判断した。
論文 参考訳(メタデータ) (2024-04-17T21:09:13Z) - Mavericks at BLP-2023 Task 1: Ensemble-based Approach Using Language
Models for Violence Inciting Text Detection [0.0]
ソーシャルメディアは、社会における憎しみや暴力的な発言の伝播を加速させてきた。
少ない研究と少ないデータにより、低リソース環境では、暴力を誘発するテキストを検出する問題がさらに悪化する。
本稿では,バングラ語処理に関する第1回ワークショップにおいて,Volence Inciting Text Detection共有タスクについて紹介する。
論文 参考訳(メタデータ) (2023-11-30T18:23:38Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - Counterfactual Reasoning for Out-of-distribution Multimodal Sentiment
Analysis [56.84237932819403]
本稿では,OODの高次一般化に対するテキストモダリティの悪影響を推定・緩和することを目的とする。
そこで本研究では,マルチモーダル感情分析のためのモデルに依存しない反現実的フレームワークを考案した。
論文 参考訳(メタデータ) (2022-07-24T03:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。