論文の概要: Automated Identification of Disaster News For Crisis Management Using
Machine Learning
- arxiv url: http://arxiv.org/abs/2301.09896v1
- Date: Tue, 24 Jan 2023 10:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:02:07.766021
- Title: Automated Identification of Disaster News For Crisis Management Using
Machine Learning
- Title(参考訳): 機械学習を用いた危機管理のための災害ニュースの自動識別
- Authors: Lord Christian Carl H. Regacho, Ai Matsushita, Angie M. Ceniza-Canillo
- Abstract要約: この研究は、正当性と不正なニュース記事を識別できるモデルを作成するために、この問題に光を当てた。
私たちは、ロジスティック回帰(Logistic Regression)、ランダムフォレスト(Random Forest)、マルチノミアル・ネイブベイズ(Multinomial Naive Bayes)という、次の機械学習アルゴリズムを選択しました。
このモデルは精度91.07%、精度88.33%、リコール94.64%、F1スコア91.38%に達することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A lot of news sources picked up on Typhoon Rai (also known locally as Typhoon
Odette), along with fake news outlets. The study honed in on the issue, to
create a model that can identify between legitimate and illegitimate news
articles. With this in mind, we chose the following machine learning algorithms
in our development: Logistic Regression, Random Forest and Multinomial Naive
Bayes. Bag of Words, TF-IDF and Lemmatization were implemented in the Model.
Gathering 160 datasets from legitimate and illegitimate sources, the machine
learning was trained and tested. By combining all the machine learning
techniques, the Combined BOW model was able to reach an accuracy of 91.07%,
precision of 88.33%, recall of 94.64%, and F1 score of 91.38% and Combined
TF-IDF model was able to reach an accuracy of 91.18%, precision of 86.89%,
recall of 94.64%, and F1 score of 90.60%.
- Abstract(参考訳): 多くのニュースソースがTyphoon Rai(地元でもTyphoon Odetteと呼ばれている)と偽のニュースメディアを取り上げている。
この研究は、正当性と不正なニュース記事を識別できるモデルを作成するために、この問題に光を当てた。
そこで私たちは、ロジスティック回帰(Logistic Regression)、ランダムフォレスト(Random Forest)、マルチノミアル・ネイブベイズ(Multinomial Naive Bayes)という機械学習アルゴリズムを選択しました。
単語のバグ、TF-IDF、Lemmatizationがモデルに実装された。
正当性と不正なソースから160のデータセットを取得し、機械学習をトレーニングし、テストした。
すべての機械学習技術を組み合わせることで、91.07%の精度、88.33%の精度、94.64%のリコール、91.38%のf1スコアに到達し、tf-idfモデルは91.18%の精度、86.89%の精度、94.64%のリコール、90.60%のf1スコアに到達した。
関連論文リスト
- Browser Extension for Fake URL Detection [0.0]
本稿では、機械学習モデルを用いてオンラインセキュリティを強化するBrowser Extensionを提案する。
提案手法はPhishing Webサイトの分類にLGBM分類器を用いる。
スパムメール検出のためのModel for Spamは、5500以上のメッセージを持つデータセットでトレーニングされたマルチノードNBアルゴリズムを使用している。
論文 参考訳(メタデータ) (2024-11-16T07:22:59Z) - Intelligent Fault Diagnosis of Type and Severity in Low-Frequency, Low Bit-Depth Signals [0.6144680854063939]
この研究は、高パフォーマンスと低リソース消費のバランスをとることを目的として、不均衡なMaFaulDaデータセットの音声データを活用する。
精度は99.54%、F-Betaスコアは99.52%で、わずか6本の隆起木が8kHz、8ビット構成であった。
論文 参考訳(メタデータ) (2024-11-09T22:01:11Z) - A Comparative Study of Hybrid Models in Health Misinformation Text Classification [0.43695508295565777]
本研究では、オンラインソーシャルネットワーク(OSN)上での新型コロナウイルス関連誤情報検出における機械学習(ML)モデルとディープラーニング(DL)モデルの有効性を評価する。
本研究は, 従来のMLアルゴリズムよりも, DLおよびハイブリッドDLモデルの方が, OSN上の新型コロナウイルスの誤情報を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2024-10-08T19:43:37Z) - Stacking-Enhanced Bagging Ensemble Learning for Breast Cancer Classification with CNN [0.24578723416255752]
本稿では,乳がん分類のためのBaggingおよびスタックングアンサンブル学習手法に基づくCNN分類ネットワークを提案する。
このモデルは入力画像の高速かつ正確な分類を行うことができる。
二項分類(乳がんの有無)では、精度は98.84%に達し、5級分類では98.34%に達した。
論文 参考訳(メタデータ) (2024-07-15T09:44:43Z) - Common 7B Language Models Already Possess Strong Math Capabilities [61.61442513067561]
本稿では,LLaMA-2 7Bモデルと事前学習を併用したモデルが,すでに強力な数学的能力を示していることを示す。
拡張スケーリングの可能性は、公開されている数学の質問の不足によって制限されている。
論文 参考訳(メタデータ) (2024-03-07T18:00:40Z) - Llamas Know What GPTs Don't Show: Surrogate Models for Confidence
Estimation [70.27452774899189]
大規模言語モデル(LLM)は、ユーザを誤解させるのではなく、不正な例に対して低い信頼を示さなければならない。
2023年11月現在、最先端のLLMはこれらの確率へのアクセスを提供していない。
言語的信頼度と代理モデル確率を構成する最良の方法は、12データセットすべてに対して最先端の信頼度推定を与える。
論文 参考訳(メタデータ) (2023-11-15T11:27:44Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with
Gradient-Disentangled Embedding Sharing [117.41016786835452]
本稿では,DeBERTaモデルの改良を目的とした,事前学習型言語モデルDeBERTaV3を提案する。
ELECTRAでのバニラ埋め込み共有は、トレーニング効率とモデルパフォーマンスを損なう。
そこで本研究では、タグ・オブ・ウォーのダイナミクスを回避するために、新しい勾配距離の埋め込み方式を提案する。
論文 参考訳(メタデータ) (2021-11-18T06:48:00Z) - To be Robust or to be Fair: Towards Fairness in Adversarial Training [83.42241071662897]
逆行訓練アルゴリズムは、異なるデータ群間の精度と堅牢性に深刻な違いをもたらす傾向がある。
本稿では、敵防衛を行う際の不公平問題を軽減するためのFair-Robust-Learning(FRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T02:21:54Z) - DeBERTa: Decoding-enhanced BERT with Disentangled Attention [119.77305080520718]
2つの新しい手法を用いてBERTモデルとRoBERTaモデルを改善する新しいモデルアーキテクチャDeBERTaを提案する。
これらの手法により,モデル事前学習の効率化と,自然言語理解(NLU)と自然言語生成(NLG)の両方の性能向上が期待できる。
論文 参考訳(メタデータ) (2020-06-05T19:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。