論文の概要: DS@GT at CheckThat! 2025: A Simple Retrieval-First, LLM-Backed Framework for Claim Normalization
- arxiv url: http://arxiv.org/abs/2508.17402v1
- Date: Sun, 24 Aug 2025 15:19:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.508575
- Title: DS@GT at CheckThat! 2025: A Simple Retrieval-First, LLM-Backed Framework for Claim Normalization
- Title(参考訳): DS@GT at CheckThat! 2025: クレーム正規化のためのシンプルな検索ファーストLLM支援フレームワーク
- Authors: Aleksandar Pramov, Jiangqin Ma, Bina Patel,
- Abstract要約: クレーム正規化は、任意の自動ファクトチェックシステムにおいて不可欠な部分である。
CheckThat! 2025 Task 2はクレームの正規化に特化しており、20言語にまたがっている。
提案手法は,LLM支援パイプラインを軽量に構築する。
- 参考スコア(独自算出の注目度): 41.99844472131922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Claim normalization is an integral part of any automatic fact-check verification system. It parses the typically noisy claim data, such as social media posts into normalized claims, which are then fed into downstream veracity classification tasks. The CheckThat! 2025 Task 2 focuses specifically on claim normalization and spans 20 languages under monolingual and zero-shot conditions. Our proposed solution consists of a lightweight \emph{retrieval-first, LLM-backed} pipeline, in which we either dynamically prompt a GPT-4o-mini with in-context examples, or retrieve the closest normalization from the train dataset directly. On the official test set, the system ranks near the top for most monolingual tracks, achieving first place in 7 out of of the 13 languages. In contrast, the system underperforms in the zero-shot setting, highlighting the limitation of the proposed solution.
- Abstract(参考訳): クレーム正規化は、任意の自動ファクトチェックシステムにおいて不可欠な部分である。
ソーシャルメディアの投稿などの一般的なノイズの多いクレームデータを正規化クレームに解析し、下流のクレーム分類タスクに投入する。
The CheckThat!
2025 Task 2はクレームの正規化に特化しており、モノリンガルおよびゼロショット条件下では20言語にまたがる。
提案手法は軽量な 'emph{retrieval-first, LLM-backed} パイプラインで構成され, GPT-4o-mini をインコンテキストの例で動的にプロンプトするか,あるいは列車のデータセットから直接最も近い正規化を取得する。
公式テストセットでは、システムはほとんどのモノリンガルトラックの上位にランクされ、13言語中7言語で1位を獲得している。
対照的に、システムはゼロショット設定では性能が劣り、提案した解の制限が強調される。
関連論文リスト
- Multilingual vs Crosslingual Retrieval of Fact-Checked Claims: A Tale of Two Approaches [5.850200023135349]
マルチリンガルおよびクロスリンガルのパフォーマンスを改善するための戦略を検討する。
47言語におけるポストとクレームを含むデータセットに対するアプローチを評価する。
最も重要なことは、多言語性は多言語性よりも独自の特徴を持つセットアップであることが示される。
論文 参考訳(メタデータ) (2025-05-28T08:47:10Z) - TIFIN India at SemEval-2025: Harnessing Translation to Overcome Multilingual IR Challenges in Fact-Checked Claim Retrieval [0.10417205448468168]
我々は、モノリンガルとクロスリンガルの設定において、以前に事実確認されたクレームを取得するという課題に対処する。
提案手法は,細調整埋め込みモデルとLLMリランカを用いた信頼性の高いベースライン検索システムである。
論文 参考訳(メタデータ) (2025-04-23T11:34:35Z) - Blending LLMs into Cascaded Speech Translation: KIT's Offline Speech Translation System for IWSLT 2024 [61.189875635090225]
大規模言語モデル (LLM) は現在,自動音声認識 (ASR) や機械翻訳 (MT) ,さらにはエンドツーエンド音声翻訳 (ST) など,さまざまなタスクを探索中である。
論文 参考訳(メタデータ) (2024-06-24T16:38:17Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - A Chat About Boring Problems: Studying GPT-based text normalization [22.64840464909988]
少数のシナリオにおいて,テキスト正規化のための大言語モデルの能力を示す。
LLMによるテキスト正規化は、上位正規化システムよりも40%低い誤差率を達成する。
テキスト正規化エラーの新しい分類法を作成し、GPT-3.5-TurboとGPT-4.0の結果に適用する。
論文 参考訳(メタデータ) (2023-09-23T16:32:59Z) - $k$NN Prompting: Beyond-Context Learning with Calibration-Free Nearest
Neighbor Inference [75.08572535009276]
In-Context Learning (ICL) は、ターゲットタスクを、インコンテキストのデモンストレーションで条件付のプロンプト完了として定式化する。
$k$NN 最初のクエリ LLM を分散表現のトレーニングデータで実行し、近くの隣人を参照してテストインスタンスを予測する。
数ショットのシナリオでは、最先端のキャリブレーションベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-03-24T06:16:29Z) - HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding [56.756090143062536]
本稿では,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
フルデータセットとゼロショット設定の両方で、MASSIVEデータセット上で実験を行う。
提案手法はインテント検出とスロット充足の両方の性能を向上させる。
論文 参考訳(メタデータ) (2023-01-05T11:21:15Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。