論文の概要: RELIANCE: Reliable Ensemble Learning for Information and News
Credibility Evaluation
- arxiv url: http://arxiv.org/abs/2401.10940v1
- Date: Wed, 17 Jan 2024 13:11:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:57:14.415718
- Title: RELIANCE: Reliable Ensemble Learning for Information and News
Credibility Evaluation
- Title(参考訳): reliance:信頼性のあるアンサンブル学習による情報とニュース信頼性の評価
- Authors: Majid Ramezani, Hamed Mohammad-Shahi, Mahshid Daliry, Soroor Rahmani,
Amir-Hosein Asghari
- Abstract要約: ReLIANCEは、堅牢な情報と偽ニュース信頼性評価のために設計された、先駆的なアンサンブル学習システムである。
サポートベクトルマシン(SVM)、ナイーブベイズ(英語版)、ロジスティック回帰(英語版)、ランダムフォレスト(英語版)、双方向長短期記憶ネットワーク(BiLSTM)を含む5つの多様なベースモデルが組み込まれている。
実験では、個々のモデルよりもRELIANCEの方が優れていることが示され、信頼できない情報ソースと信頼できない情報ソースを区別する効果が示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the era of information proliferation, discerning the credibility of news
content poses an ever-growing challenge. This paper introduces RELIANCE, a
pioneering ensemble learning system designed for robust information and fake
news credibility evaluation. Comprising five diverse base models, including
Support Vector Machine (SVM), naive Bayes, logistic regression, random forest,
and Bidirectional Long Short Term Memory Networks (BiLSTMs), RELIANCE employs
an innovative approach to integrate their strengths, harnessing the collective
intelligence of the ensemble for enhanced accuracy. Experiments demonstrate the
superiority of RELIANCE over individual models, indicating its efficacy in
distinguishing between credible and non-credible information sources. RELIANCE,
also surpasses baseline models in information and news credibility assessment,
establishing itself as an effective solution for evaluating the reliability of
information sources.
- Abstract(参考訳): 情報拡散の時代には、ニュースコンテンツの信頼性の認識がますます難しくなっている。
本稿では,堅牢な情報と偽ニュースの信頼性評価を目的とした,先駆的なアンサンブル学習システムRELIANCEを紹介する。
Support Vector Machine(SVM)、Naive Bayes(英語版)、ロジスティック回帰(英語版)、ランダムフォレスト(英語版)、Bidirectional Long Term Memory Networks(英語版) (BiLSTMs)を含む5つの多様なベースモデルで構成され、RELIANCEはその強度を統合する革新的なアプローチを採用し、アンサンブルの集合的知性を利用して精度を向上させる。
実験は、個々のモデルに対する信頼の優位性を示し、信頼できる情報ソースと信用できない情報ソースを区別する効果を示している。
Relianceはまた、情報およびニュース信頼性評価のベースラインモデルを超え、情報ソースの信頼性を評価する効果的なソリューションとしての地位を確立している。
関連論文リスト
- Reliability Estimation of News Media Sources: Birds of a Feather Flock Together [0.7249731529275342]
本稿では,強化学習戦略を活用した情報源信頼度推定手法を提案する。
本手法を,既存データセットよりも桁違いに大きいニュースメディア信頼性データセット上で検証した。
我々は、情報検証に取り組んでいるNLPコミュニティにとって貴重なリソースを提供することを目的として、実装とデータセットをリリースする。
論文 参考訳(メタデータ) (2024-04-15T08:27:47Z) - Not All Contexts Are Equal: Teaching LLMs Credibility-aware Generation [47.42366169887162]
Credibility-Aware Generation (CAG) は、信頼性に基づいて情報を識別・処理する能力を備えたモデルを提供することを目的としている。
提案モデルは,生成に対する信頼性を効果的に理解し活用し,検索強化により他のモデルよりも大幅に優れ,ノイズの多い文書による破壊に対するレジリエンスを示す。
論文 参考訳(メタデータ) (2024-04-10T07:56:26Z) - Preserving Knowledge Invariance: Rethinking Robustness Evaluation of
Open Information Extraction [50.62245481416744]
実世界におけるオープン情報抽出モデルの評価をシミュレートする最初のベンチマークを示す。
我々は、それぞれの例が知識不変のcliqueである大規模なテストベッドを設計し、注釈付けする。
さらにロバスト性計量を解明することにより、その性能が全体の傾きに対して一貫して正確であるならば、モデルはロバストであると判断される。
論文 参考訳(メタデータ) (2023-05-23T12:05:09Z) - FRSUM: Towards Faithful Abstractive Summarization via Enhancing Factual
Robustness [56.263482420177915]
我々は,既存のシステムの忠実さを,事実的堅牢性という新たな視点から研究する。
本研究では,新たなトレーニング戦略,すなわちFRSUMを提案し,そのモデルに対して,暗黙の対角的サンプルと暗黙の対向的摂動の両方を防御するように指導する。
論文 参考訳(メタデータ) (2022-11-01T06:09:00Z) - Interpretable Fake News Detection with Topic and Deep Variational Models [2.15242029196761]
我々は,解釈可能な特徴と手法を用いた偽ニュース検出に焦点をあてる。
我々は,テキストニュースの高密度表現を統合した深層確率モデルを開発した。
我々のモデルは最先端の競合モデルに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2022-09-04T05:31:00Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - InfoBERT: Improving Robustness of Language Models from An Information
Theoretic Perspective [84.78604733927887]
BERTのような大規模言語モデルは、幅広いNLPタスクで最先端のパフォーマンスを実現している。
近年の研究では、このようなBERTベースのモデルが、テキストの敵対的攻撃の脅威に直面していることが示されている。
本稿では,事前学習した言語モデルの堅牢な微調整のための新しい学習フレームワークであるInfoBERTを提案する。
論文 参考訳(メタデータ) (2020-10-05T20:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。