論文の概要: Bangla BERT for Hyperpartisan News Detection: A Semi-Supervised and Explainable AI Approach
- arxiv url: http://arxiv.org/abs/2507.21242v1
- Date: Mon, 28 Jul 2025 18:02:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.1638
- Title: Bangla BERT for Hyperpartisan News Detection: A Semi-Supervised and Explainable AI Approach
- Title(参考訳): Bangla BERT for Hyperpartisan News Detection: 半監督的で説明可能なAIアプローチ
- Authors: Mohammad Mehadi Hasan, Fatema Binte Hassan, Md Al Jubair, Zobayer Ahmed, Sazzatul Yeakin, Md Masum Billah,
- Abstract要約: 超党派ニュースの分類精度を高めるための最先端トランスフォーマーベースモデル
95.65%の精度で、Bangla BERTは従来の手法より優れている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the current digital landscape, misinformation circulates rapidly, shaping public perception and causing societal divisions. It is difficult to identify hyperpartisan news in Bangla since there aren't many sophisticated natural language processing methods available for this low-resource language. Without effective detection methods, biased content can spread unchecked, posing serious risks to informed discourse. To address this gap, our research fine-tunes Bangla BERT. This is a state-of-the-art transformer-based model, designed to enhance classification accuracy for hyperpartisan news. We evaluate its performance against traditional machine learning models and implement semi-supervised learning to enhance predictions further. Not only that, we use LIME to provide transparent explanations of the model's decision-making process, which helps to build trust in its outcomes. With a remarkable accuracy score of 95.65%, Bangla BERT outperforms conventional approaches, according to our trial data. The findings of this study demonstrate the usefulness of transformer models even in environments with limited resources, which opens the door to further improvements in this area.
- Abstract(参考訳): 現在のデジタルランドスケープでは、誤報は急速に流通し、大衆の認識を形成し、社会的分裂を引き起こす。
バングラで超党派的なニュースを特定するのは、この低リソース言語で利用可能な高度な自然言語処理方法があまりないため困難である。
効果的な検出方法がなければ、バイアスのあるコンテンツは未確認で拡散し、情報談話に重大なリスクを及ぼす可能性がある。
このギャップに対処するため、我々の研究はBangla BERTを微調整した。
これは、超党派ニュースの分類精度を高めるために設計された最先端のトランスフォーマーベースのモデルである。
従来の機械学習モデルに対してその性能を評価し、予測をさらに強化するために半教師付き学習を実装した。
それだけでなく、私たちはLIMEを使用して、モデルの意思決定プロセスの透過的な説明を提供しています。
試験データによると、Bangla BERTは95.65%の精度で従来の手法より優れている。
本研究は, 資源が限られている環境においても, 変圧器モデルの有用性を示すものである。
関連論文リスト
- Breaking the Fake News Barrier: Deep Learning Approaches in Bangla Language [0.0]
本稿では,特にGRU(Gated Repetitive Unit)を用いて,バングラ方言における偽ニュースを識別する手法を提案する。
本研究の戦略は, トレンマ化, トークン化, オーバーサンプリングによる不規則な性質の傾向を含む, 集中的な情報前処理を取り入れたものである。
モデルの性能は、精度、リコール、F1スコア、精度などの信頼性の高い指標によって調査される。
論文 参考訳(メタデータ) (2025-01-30T21:41:26Z) - A Regularized LSTM Method for Detecting Fake News Articles [0.0]
本稿では,偽ニュース記事を検出するための高度な機械学習ソリューションを開発する。
我々は、23,502の偽ニュース記事と21,417の正確なニュース記事を含む、包括的なニュース記事のデータセットを活用している。
私たちの研究は、そのようなモデルを現実世界のアプリケーションにデプロイする可能性を強調しています。
論文 参考訳(メタデータ) (2024-11-16T05:54:36Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Enhancing Depressive Post Detection in Bangla: A Comparative Study of TF-IDF, BERT and FastText Embeddings [0.0]
本研究は,バングラにおける抑うつ的なソーシャルメディア投稿を識別する手法を提案する。
ドメインの専門家によって注釈付けされたこの研究で使用されるデータセットには、抑うつ的ポストと非抑うつ的ポストの両方が含まれている。
クラス不均衡の問題に対処するために,マイノリティクラスに対するランダムなオーバーサンプリングを利用した。
論文 参考訳(メタデータ) (2024-07-12T11:40:17Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Performance Analysis of Transformer Based Models (BERT, ALBERT and
RoBERTa) in Fake News Detection [0.0]
住民の誤報や誤報に最もさらされた地域のトップ3は、バンテン、DKIジャカルタ、西ジャワである。
従来の研究では、BERTとして知られる変圧器モデルの非変圧器アプローチ上における優れた性能が示されている。
本研究では、これらのトランスモデルを探索し、ALBERTが87.6%の精度、86.9%の精度、86.9%のF1スコア、174.5の実行時間(s/epoch)で他のモデルより優れていることを発見した。
論文 参考訳(メタデータ) (2023-08-09T13:33:27Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z) - A Simple but Tough-to-Beat Data Augmentation Approach for Natural
Language Understanding and Generation [53.8171136907856]
カットオフと呼ばれる、シンプルで効果的なデータ拡張戦略のセットを紹介します。
カットオフはサンプリング一貫性に依存しているため、計算オーバーヘッドが少なくなる。
cutoffは、敵のトレーニングを一貫して上回り、IWSLT2014 German- English データセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-29T07:08:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。