論文の概要: Fraunhofer SIT at CheckThat! 2023: Mixing Single-Modal Classifiers to
Estimate the Check-Worthiness of Multi-Modal Tweets
- arxiv url: http://arxiv.org/abs/2307.00610v2
- Date: Thu, 27 Jul 2023 14:54:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-28 19:29:57.558868
- Title: Fraunhofer SIT at CheckThat! 2023: Mixing Single-Modal Classifiers to
Estimate the Check-Worthiness of Multi-Modal Tweets
- Title(参考訳): Fraunhofer SIT at CheckThat!
2023年:マルチモーダルツイートのチェックウェアネスを推定するためにシングルモーダル分類器を混合
- Authors: Raphael Frick, Inna Vogel
- Abstract要約: 本稿では,マルチモーダルつぶやきのチェックしやすさを検知する新しい手法を提案する。
これは2つの分類器を利用し、それぞれが単一のモダリティで訓練される。
画像データについては,OCR解析による埋め込みテキストの抽出が最良であることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The option of sharing images, videos and audio files on social media opens up
new possibilities for distinguishing between false information and fake news on
the Internet. Due to the vast amount of data shared every second on social
media, not all data can be verified by a computer or a human expert. Here, a
check-worthiness analysis can be used as a first step in the fact-checking
pipeline and as a filtering mechanism to improve efficiency. This paper
proposes a novel way of detecting the check-worthiness in multi-modal tweets.
It takes advantage of two classifiers, each trained on a single modality. For
image data, extracting the embedded text with an OCR analysis has shown to
perform best. By combining the two classifiers, the proposed solution was able
to place first in the CheckThat! 2023 Task 1A with an F1 score of 0.7297
achieved on the private test set.
- Abstract(参考訳): ソーシャルメディア上で画像、ビデオ、オーディオファイルを共有するオプションは、インターネット上で偽情報と偽ニュースを区別する新たな可能性を開く。
ソーシャルメディア上で毎秒に大量のデータが共有されているため、すべてのデータがコンピュータや人間の専門家によって検証されるわけではない。
ここで、チェック値解析は、ファクトチェックパイプラインの第1ステップとして、また、効率を改善するフィルタリングメカニズムとして使用できる。
本稿では,マルチモーダルつぶやきのチェック性を検出する新しい手法を提案する。
1つのモダリティで訓練された2つの分類器を利用する。
画像データについては,OCR解析による埋め込みテキストの抽出が最良であることが示されている。
2つの分類器を組み合わせることで、提案されたソリューションは最初にCheckThatに配置することができた!
2023 タスク1a プライベートテストセットで達成された f1 スコア 0.7297 のタスク1。
関連論文リスト
- Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Gpachov at CheckThat! 2023: A Diverse Multi-Approach Ensemble for
Subjectivity Detection in News Articles [34.98368667957678]
本稿では,GpachovチームによるCLEF-2023 CheckThat! Lab Task2における主観性検出のためのソリューションを提案する。
3つのアプローチは単純な多数決投票アンサンブルで組み合わせられ、その結果、テストセットで0.77マクロF1、英語サブタスクで2位となる。
論文 参考訳(メタデータ) (2023-09-13T09:49:20Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Perception Test: A Diagnostic Benchmark for Multimodal Video Models [78.64546291816117]
本稿では,事前学習したマルチモーダルモデルの知覚と推論能力を評価するために,新しいマルチモーダルビデオベンチマークを提案する。
知覚テストは、スキル(記憶、抽象化、物理学、セマンティックス)と、ビデオ、オーディオ、テキストモダリティ間の推論(記述的、説明的、予測的、反ファクト的)のタイプに焦点を当てている。
このベンチマークは、ゼロショット/少数ショットまたは限定的な微調整方式で、転送機能の事前訓練されたモデルを探索する。
論文 参考訳(メタデータ) (2023-05-23T07:54:37Z) - Noise-Robust De-Duplication at Scale [4.499833362998488]
この研究は、歴史的ニュースワイヤーのユニークなタイムラインを使って27,210の文書データセットを作成する。
ハッシュやN-gramオーバーラップなど,さまざまな非重複手法を開発し,評価する。
バイエンコーダのスケールは良好で、1つのGPUカードに1000万記事のコーパスを数時間で非重複化する。
論文 参考訳(メタデータ) (2022-10-09T13:30:42Z) - Learning Audio-Visual embedding for Wild Person Verification [18.488385598522125]
本稿では,融合の観点からアグリゲータを考慮した音声視覚ネットワークを提案する。
顔認証において初めて注意統計のプールを改良した。
最後に、モダリティをゲートアテンション機構で融合する。
論文 参考訳(メタデータ) (2022-09-09T02:29:47Z) - Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal
Misinformation [83.2079454464572]
本稿では,DARPAセマンティック・フォレスティクス(SemaFor)プログラムにおける画像テキスト不整合検出へのアプローチについて述べる。
Twitter-COMMsは大規模マルチモーダルデータセットで、884万のツイートが気候変動、新型コロナウイルス、軍用車両のトピックに関連する。
我々は、最先端のCLIPモデルに基づいて、自動生成されたランダムとハードのネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガネガ
論文 参考訳(メタデータ) (2021-12-16T03:37:20Z) - One-shot Key Information Extraction from Document with Deep Partial
Graph Matching [60.48651298832829]
ドキュメントからキー情報抽出(KIE)は、多くの産業シナリオにおいて効率、生産性、セキュリティを改善する。
KIEタスクのための既存の教師付き学習手法は、多数のラベル付きサンプルを供給し、異なる種類の文書の別々のモデルを学ぶ必要がある。
部分グラフマッチングを用いたワンショットKIEのためのディープエンド・ツー・エンド・トレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T07:45:53Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - A Convolutional Baseline for Person Re-Identification Using Vision and
Language Descriptions [24.794592610444514]
現実世界の監視シナリオでは、クエリされた人に関する視覚的な情報は頻繁に提供されない。
クロスエントロピー損失によって制御される2つのストリームディープ畳み込みニューラルネットワークフレームワークを示す。
学習した視覚表現は、単一のモダリティシステムと比較して、より堅牢で、検索時に22%向上する。
論文 参考訳(メタデータ) (2020-02-20T10:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。