論文の概要: UofA-Truth at Factify 2022 : Transformer And Transfer Learning Based
Multi-Modal Fact-Checking
- arxiv url: http://arxiv.org/abs/2203.07990v1
- Date: Fri, 28 Jan 2022 18:13:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:56:01.214554
- Title: UofA-Truth at Factify 2022 : Transformer And Transfer Learning Based
Multi-Modal Fact-Checking
- Title(参考訳): uofa-truth at factify 2022 : トランスフォーマーとトランスファー学習に基づくマルチモーダルファクトチェック
- Authors: Abhishek Dhankar, Osmar R. Za\"iane and Francois Bolduc
- Abstract要約: マルチモーダルニュースソースにおける誤情報・偽情報自動検出の課題に対処しようと試みた。
私たちのモデルはF1重み付けスコア74.807%を生成しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Identifying fake news is a very difficult task, especially when considering
the multiple modes of conveying information through text, image, video and/or
audio. We attempted to tackle the problem of automated
misinformation/disinformation detection in multi-modal news sources (including
text and images) through our simple, yet effective, approach in the FACTIFY
shared task at De-Factify@AAAI2022. Our model produced an F1-weighted score of
74.807%, which was the fourth best out of all the submissions. In this paper we
will explain our approach to undertake the shared task.
- Abstract(参考訳): 特にテキスト、画像、ビデオ、音声を通じて情報を伝達する複数のモードを考える場合、偽ニュースを特定することは非常に難しい作業である。
我々は,De-Factify@AAAI2022におけるFACTIFY共有タスクにおいて,複数のモーダルニュースソース(テキストや画像を含む)の自動誤報・誤報検出の問題に,単純かつ効果的に対処する試みを行った。
私たちのモデルはF1重み付けスコア74.807%を生成しました。
本稿では,共有タスクを行うためのアプローチについて説明する。
関連論文リスト
- Embrace Divergence for Richer Insights: A Multi-document Summarization Benchmark and a Case Study on Summarizing Diverse Information from News Articles [136.84278943588652]
同一イベントを含む複数のニュース記事において遭遇する多様な情報を要約する新しい課題を提案する。
この作業を容易にするために、多様な情報を特定するためのデータ収集スキーマの概要と、DiverseSummというデータセットをキュレートした。
データセットには245のニュース記事が含まれており、各ストーリーは10のニュース記事からなり、人間公認の参照と組み合わせられる。
論文 参考訳(メタデータ) (2023-09-17T20:28:17Z) - Findings of Factify 2: Multimodal Fake News Detection [36.34201719103715]
本稿では,マルチモーダルな事実検証と風刺ニュースデータセットを提供するFactify 2共有タスクの結果を示す。
このデータでは,マルチモーダル関係に基づく5つのクラスに分けて,ソーシャルメディアの主張をテキストと画像の両方で支援文書と組み合わせることで,タスクに対する比較に基づくアプローチが求められている。
全5クラスの平均得点は81.82%であった。
論文 参考訳(メタデータ) (2023-07-19T22:14:49Z) - Fraunhofer SIT at CheckThat! 2023: Mixing Single-Modal Classifiers to
Estimate the Check-Worthiness of Multi-Modal Tweets [0.0]
本稿では,マルチモーダルつぶやきのチェックしやすさを検知する新しい手法を提案する。
これは2つの分類器を利用し、それぞれが単一のモダリティで訓練される。
画像データについては,OCR解析による埋め込みテキストの抽出が最良であることが示されている。
論文 参考訳(メタデータ) (2023-07-02T16:35:54Z) - Overview of the Shared Task on Fake News Detection in Urdu at FIRE 2020 [62.6928395368204]
タスクはバイナリ分類タスクとして設定され、ゴールはリアルニュースとフェイクニュースを区別することである。
トレーニング用に900の注釈付きニュース記事とテスト用に400のニュース記事のデータセットを作成した。
6カ国(インド、中国、エジプト、ドイツ、パキスタン、イギリス)の42チームが登録された。
論文 参考訳(メタデータ) (2022-07-25T03:41:32Z) - Overview of the Shared Task on Fake News Detection in Urdu at FIRE 2021 [55.41644538483948]
共有タスクの目標は、コミュニティにこの重要な問題を解決するための効率的な方法を考え出すことを動機付けることです。
トレーニングセットには1300件の注釈付きニュース記事、750件のリアルニュース、550件のフェイクニュース、300件のニュース記事、200件のリアルニュース、100件のフェイクニュースが含まれている。
F1-macroスコアは0.679で、これは過去最高の0.907 F1-macroよりも低かった。
論文 参考訳(メタデータ) (2022-07-11T18:58:36Z) - Automated Evidence Collection for Fake News Detection [11.324403127916877]
本稿では,現在行われている偽ニュース検出手法を改良した新しい手法を提案する。
提案手法は,Web記事からエビデンスを抽出し,エビデンスとして扱うための適切なテキストを選択する。
我々の実験は、機械学習とディープラーニングに基づく手法の両方を用いて、我々のアプローチを広範囲に評価するのに役立つ。
論文 参考訳(メタデータ) (2021-12-13T09:38:41Z) - VATT: Transformers for Multimodal Self-Supervised Learning from Raw
Video, Audio and Text [60.97904439526213]
video-audio-text transformer (vatt) は生の信号を入力として取り、様々な下流タスクに役立つほどリッチなマルチモーダル表現を抽出する。
マルチモーダルなコントラスト損失を用いて,vattのエンドツーエンドをスクラッチからトレーニングし,映像動作認識,音声イベント分類,画像分類,テキストからビデオへの検索といった下流タスクによってその性能を評価する。
論文 参考訳(メタデータ) (2021-04-22T17:07:41Z) - On Unifying Misinformation Detection [51.10764477798503]
このモデルは、ニュースバイアスの検出、クリックベイト、フェイクニュース、噂の検証の4つのタスクを扱うように訓練されている。
We demonstrate that UnifiedM2's learned representation is help for few-shot learning of unseen misinformation tasks/datasets。
論文 参考訳(メタデータ) (2021-04-12T07:25:49Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。