論文の概要: DS@GT at CheckThat! 2025: Exploring Retrieval and Reranking Pipelines for Scientific Claim Source Retrieval on Social Media Discourse
- arxiv url: http://arxiv.org/abs/2507.06563v1
- Date: Wed, 09 Jul 2025 05:32:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.483929
- Title: DS@GT at CheckThat! 2025: Exploring Retrieval and Reranking Pipelines for Scientific Claim Source Retrieval on Social Media Discourse
- Title(参考訳): DS@GT at CheckThat! 2025: Exploring Retrieval and Re rank Pipelines for Scientific Claim Source Retrieval on Social Media Discourse
- Authors: Jeanette Schofield, Shuyu Tian, Hoang Thanh Thanh Truong, Maximilian Heil,
- Abstract要約: 本稿では,CLEF 2025 CheckThat! Lab Task 4b Scientific Claim Source RetrievalのDS@GTチームが行った作業について詳述する。
私たちのチームは、6つの異なるデータ拡張テクニック、7つの異なる検索と再ランクパイプライン、そしてバイエンコーダを微調整しました。
- 参考スコア(独自算出の注目度): 1.5356574175312299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media users often make scientific claims without citing where these claims come from, generating a need to verify these claims. This paper details work done by the DS@GT team for CLEF 2025 CheckThat! Lab Task 4b Scientific Claim Source Retrieval which seeks to find relevant scientific papers based on implicit references in tweets. Our team explored 6 different data augmentation techniques, 7 different retrieval and reranking pipelines, and finetuned a bi-encoder. Achieving an MRR@5 of 0.58, our team ranked 16th out of 30 teams for the CLEF 2025 CheckThat! Lab Task 4b, and improvement of 0.15 over the BM25 baseline of 0.43. Our code is available on Github at https://github.com/dsgt-arc/checkthat-2025-swd/tree/main/subtask-4b.
- Abstract(参考訳): ソーシャルメディアのユーザーは、これらの主張がどこから来たのかを引用せずに、科学的な主張をすることが多い。
この記事は、CLEF 2025 CheckThat!
Lab Task 4b Scientific Claim Source Retrievalは、ツイート中の暗黙の参照に基づいて、関連する科学論文を見つけようとしている。
私たちのチームは、6つの異なるデータ拡張テクニック、7つの異なる検索と再ランクパイプライン、そしてバイエンコーダを微調整しました。
MRR@5の0.58を達成し、CLEF 2025 CheckThatの30チーム中16位にランクインしました。
ラボタスク4b、BM25ベースライン0.43の0.15の改善。
私たちのコードはGithubでhttps://github.com/dsgt-arc/checkthat-2025-swd/tree/main/subtask-4b.comで公開されています。
関連論文リスト
- DS@GT at CheckThat! 2025: Ensemble Methods for Detection of Scientific Discourse on Social Media [0.0]
本稿では,課題4aにおけるScientific Web Discourse Detectionのための手法を提案する。
この課題のために、あるツイートが科学的な主張、科学的な研究や出版への言及、および/または科学的な実体の言及を含むかどうかを決定した。
我々のチームは7位となり、マクロ平均F1スコア0.8611、DeBERTaV3ベースライン0.8375を上回りました。
論文 参考訳(メタデータ) (2025-07-08T17:30:18Z) - Deep Retrieval at CheckThat! 2025: Identifying Scientific Papers from Implicit Social Media Mentions via Hybrid Retrieval and Re-Ranking [4.275139302875217]
CLEF CheckThat! 2025コンペティションのサブタスク4bに対するDeep Retrievalチームの方法論と結果を示す。
本稿では,語彙的精度,意味的一般化,文脈的再ランク付けを併用したハイブリッド検索パイプラインを提案する。
提案手法は, 開発セットで76.46%, 隠されたテストセットで66.43%の平均相反ランクを5 (MRR@5) 達成する。
論文 参考訳(メタデータ) (2025-05-29T08:55:39Z) - ReasonIR: Training Retrievers for Reasoning Tasks [139.54343970560103]
ReasonIR-8Bは一般的な推論タスクのために特別に訓練された最初のレトリバーである。
新たに29.9 nDCG@10をリランカなしで、36.9 nDCG@10をリランカで達成している。
論文 参考訳(メタデータ) (2025-04-29T09:49:28Z) - Contrastive Learning to Improve Retrieval for Real-world Fact Checking [84.57583869042791]
ファクト・チェッキング・リランカ(Contrastive Fact-Checking Reranker, CFR)を提案する。
我々はAVeriTeCデータセットを活用し、証拠文書からの人間による回答とクレームのサブクエストを注釈付けする。
データセットの精度は6%向上した。
論文 参考訳(メタデータ) (2024-10-07T00:09:50Z) - $\texttt{MixGR}$: Enhancing Retriever Generalization for Scientific Domain through Complementary Granularity [88.78750571970232]
本稿では,クエリ文書マッチングに対する高密度検索者の認識を改善するために,$texttMixGR$を紹介する。
$texttMixGR$は、粒度に基づくさまざまなメトリクスを統合スコアに融合させ、包括的なクエリドキュメントの類似性を反映させる。
論文 参考訳(メタデータ) (2024-07-15T13:04:09Z) - Adversarial Retriever-Ranker for dense text retrieval [51.87158529880056]
本稿では、二重エンコーダレトリバーとクロスエンコーダローダからなるAdversarial Retriever-Ranker(AR2)を提案する。
AR2は、既存の高密度レトリバー法より一貫して大幅に優れている。
これには、R@5から77.9%(+2.1%)、TriviaQA R@5から78.2%(+1.4)、MS-MARCO MRR@10から39.5%(+1.3%)の改善が含まれている。
論文 参考訳(メタデータ) (2021-10-07T16:41:15Z) - Overview of the CLEF--2021 CheckThat! Lab on Detecting Check-Worthy
Claims, Previously Fact-Checked Claims, and Fake News [21.574997165145486]
第4回CheckThat! Lab, 2021 Conference and the Labs of the Evaluation Forum (CLEF)について述べる。
同研究所は、事実性に関連する技術支援タスクを評価し、アラビア語、ブルガリア語、英語、スペイン語、トルコ語をカバーしている。
論文 参考訳(メタデータ) (2021-09-23T06:10:36Z) - Overview of CheckThat! 2020: Automatic Identification and Verification
of Claims in Social Media [26.60148306714383]
CLEF 2020にて,CheckThat! Labの第3版の概要を紹介する。
この研究室は英語とアラビア語の2つの異なる言語で5つのタスクをこなした。
本稿では,課題設定,評価結果,参加者が使用するアプローチの概要について述べる。
論文 参考訳(メタデータ) (2020-07-15T21:19:32Z) - CO-Search: COVID-19 Information Retrieval with Semantic Search, Question
Answering, and Abstractive Summarization [53.67205506042232]
CO-Searchは、新型コロナウイルスの文献上の複雑なクエリを処理するように設計された、レトリバーランサーセマンティック検索エンジンである。
ドメイン固有の比較的限られたデータセットを考慮し、文書の段落と引用の2部グラフを生成する。
TREC-COVID情報検索課題のデータに基づいて,本システムの評価を行った。
論文 参考訳(メタデータ) (2020-06-17T01:32:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。