論文の概要: Logically at Factify 2023: A Multi-Modal Fact Checking System Based on
Evidence Retrieval techniques and Transformer Encoder Architecture
- arxiv url: http://arxiv.org/abs/2301.03127v1
- Date: Mon, 9 Jan 2023 00:19:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 15:30:40.249109
- Title: Logically at Factify 2023: A Multi-Modal Fact Checking System Based on
Evidence Retrieval techniques and Transformer Encoder Architecture
- Title(参考訳): 論理的にat factify 2023:エビデンス検索技術とトランスフォーマーエンコーダアーキテクチャに基づくマルチモーダルファクトチェックシステム
- Authors: Pim Jordi Verschuuren, Jie Gao, Adelize van Eeden, Stylianos Oikonomou
and Anil Bandhakavi
- Abstract要約: 本稿では,De-Factify 2 Challenge (DE-FACTIFY 2023) のマルチモーダル・ファクト・チェックの課題1について論じる。
本稿では, 証拠検索と選択手法, 事前学習したクロスモーダルモデルとユニモーダルモデル, 確立されたトランスフォーマー(TE)アーキテクチャに基づくクロスモーダル妥当性モデルについて述べる。
最後のシステムは、標準的な2段階の証拠に基づく精度検出システムであり、タスク1上のvalセットと最終ブラインドテストの両方において重み付き0.79を出力し、第3位を最上段に小さなマージンで達成する。
- 参考スコア(独自算出の注目度): 3.7529756903595963
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present the Logically submissions to De-Factify 2 challenge
(DE-FACTIFY 2023) on the task 1 of Multi-Modal Fact Checking. We describes our
submissions to this challenge including explored evidence retrieval and
selection techniques, pre-trained cross-modal and unimodal models, and a
cross-modal veracity model based on the well established Transformer Encoder
(TE) architecture which is heavily relies on the concept of self-attention.
Exploratory analysis is also conducted on this Factify 2 data set that uncovers
the salient multi-modal patterns and hypothesis motivating the architecture
proposed in this work. A series of preliminary experiments were done to
investigate and benchmarking different pre-trained embedding models, evidence
retrieval settings and thresholds. The final system, a standard two-stage
evidence based veracity detection system, yields weighted avg. 0.79 on both val
set and final blind test set on the task 1, which achieves 3rd place with a
small margin to the top performing system on the leaderboard among 9
participants.
- Abstract(参考訳): 本稿では,マルチモーダルファクトチェックタスク1におけるデファクト2チャレンジ(デファクト2023)の論理的な提案について述べる。
本稿では, 証拠検索と選択手法, 事前学習したクロスモーダルモデル, および自己注意の概念に強く依存する, 十分に確立されたトランスフォーマーエンコーダ(TE)アーキテクチャに基づくクロスモーダル妥当性モデルについて述べる。
また,本研究で提案するアーキテクチャを動機づける仮説と有意義なマルチモーダルパターンを明らかにするfactify 2データセットについても探索分析を行った。
様々な事前学習された埋め込みモデル、エビデンス検索設定およびしきい値を調査しベンチマークするために、一連の予備実験が行われた。
最終システムは、標準的な2段階の証拠に基づく精度検出システムであり、重み付けされたavgを生成する。
valセットと最終ブラインドテストの両方で0.79がタスク1に設定され、9人の参加者の間でトップパフォーマンスシステムへのマージンが小さい3位となった。
関連論文リスト
- SmurfCat at SemEval-2024 Task 6: Leveraging Synthetic Data for Hallucination Detection [51.99159169107426]
本稿では,SemEval-2024幻覚検出タスクのための新しいシステムを提案する。
我々の調査は、モデル予測と基準基準を比較するための様々な戦略にまたがっている。
強力なパフォーマンス指標を示す3つの異なる方法を紹介します。
論文 参考訳(メタデータ) (2024-04-09T09:03:44Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Team Trifecta at Factify5WQA: Setting the Standard in Fact Verification with Fine-Tuning [8.292728619484636]
本稿では,事実検証のための質問回答とテキスト分類コンポーネントからなる包括的フレームワークであるPre-CoFactv3を提案する。
私たちのチームは、AAAI-24 Factify 3.0 Workshopで第1位を獲得し、ベースラインの精度を103%上回り、第2の競争相手よりも70%リードを維持しました。
論文 参考訳(メタデータ) (2024-03-15T13:24:28Z) - X-InstructBLIP: A Framework for aligning X-Modal instruction-aware representations to LLMs and Emergent Cross-modal Reasoning [109.9413329636322]
本稿では,複数のモーダル性(画像,3D,オーディオ,ビデオ)を凍結した大規模言語モデル(LLM)に統合する効率的なフレームワークを提案する。
提案手法では, Q-Formers と Linear Projections (LP) の2つの異なるプロジェクション機構について検討する。
論文 参考訳(メタデータ) (2023-11-30T18:43:51Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - Automatically Summarizing Evidence from Clinical Trials: A Prototype
Highlighting Current Challenges [20.74608114488094]
TrialsSummarizerは、与えられたクエリに最も関係のあるランダム化制御された試行セットで提示されたエビデンスを自動的に要約することを目的としている。
システムは、条件、介入、結果の組み合わせを指定するクエリに一致するトライアルパブリッシュを検索する
トップkの研究は、神経多文書要約システムを通して受け継がれ、これらの試行の相乗効果をもたらす。
論文 参考訳(メタデータ) (2023-03-07T17:30:48Z) - Team Triple-Check at Factify 2: Parameter-Efficient Large Foundation
Models with Feature Representations for Multi-Modal Fact Verification [5.552606716659022]
ソーシャルメディアでは、マルチモーダルな事実検証が重要だが難しい問題となっている。
本稿では,細粒度テキストと照明パラメータを用いた入力埋め込みをモデル化するためのPre-CoFactv2フレームワークを提案する。
AAAI 2023のFactifyチャレンジにおいて,Pre-CoFactv2がPre-CoFactを大きなマージンで上回り,新たな最先端の成果を得たことを示す。
論文 参考訳(メタデータ) (2023-02-12T18:08:54Z) - Logically at the Factify 2022: Multimodal Fact Verification [2.8914815569249823]
本稿では,AAAI 2022におけるマルチモーダル事実検証(Factify)課題の参加者システムについて述べる。
アンサンブルモデルとマルチモーダルアテンションネットワークを含む2つのベースラインアプローチを提案し,検討した。
我々の最良モデルは、検証セットとテストセットの両方において、重み付き平均F値が0.77となるリーダーボードで第1位にランクされている。
論文 参考訳(メタデータ) (2021-12-16T23:34:07Z) - Uni-Perceiver: Pre-training Unified Architecture for Generic Perception
for Zero-shot and Few-shot Tasks [73.63892022944198]
我々はUni-Perceiverという汎用認識アーキテクチャを提案する。
様々なモダリティやタスクを、統一されたモデリングと共有パラメータで処理します。
その結果、チューニングなしで事前学習したモデルは、新しいタスクでも合理的なパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2021-12-02T18:59:50Z) - A Multi-Level Attention Model for Evidence-Based Fact Checking [58.95413968110558]
シーケンス構造をトレーニング可能な,シンプルなモデルを提案する。
Fact extract and VERification のための大規模データセットの結果、我々のモデルはグラフベースのアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-02T05:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。