論文の概要: Team QUST at SemEval-2025 Task 10: Evaluating Large Language Models in Multiclass Multi-label Classification of News Entity Framing
- arxiv url: http://arxiv.org/abs/2506.21564v1
- Date: Thu, 12 Jun 2025 07:09:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.273642
- Title: Team QUST at SemEval-2025 Task 10: Evaluating Large Language Models in Multiclass Multi-label Classification of News Entity Framing
- Title(参考訳): SemEval-2025 Task 10におけるチームQUST:ニュースエンティティの複数ラベル分類における大規模言語モデルの評価
- Authors: Jiyan Liu, Youzheng Liu, Taihang Wang, Xiaoman Xu, Yimin Wang, Ye Jiang,
- Abstract要約: 本稿では,SemEval-2025 Task 7におけるQUST_NLPの関与について述べる。
ファクトチェックされたクレーム検索に特化して設計された3段階検索フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.13194391758295113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the participation of QUST_NLP in the SemEval-2025 Task 7. We propose a three-stage retrieval framework specifically designed for fact-checked claim retrieval. Initially, we evaluate the performance of several retrieval models and select the one that yields the best results for candidate retrieval. Next, we employ multiple re-ranking models to enhance the candidate results, with each model selecting the Top-10 outcomes. In the final stage, we utilize weighted voting to determine the final retrieval outcomes. Our approach achieved 5th place in the monolingual track and 7th place in the crosslingual track. We release our system code at: https://github.com/warmth27/SemEval2025_Task7.
- Abstract(参考訳): 本稿では,SemEval-2025 Task 7におけるQUST_NLPの関与について述べる。
ファクトチェックされたクレーム検索に特化して設計された3段階検索フレームワークを提案する。
当初、いくつかの検索モデルの性能を評価し、候補検索に最適な結果を得るモデルを選択する。
次に、各モデルがトップ10の結果を選択することにより、候補結果を強化するために複数の再ランクモデルを用いる。
最終段階では、重み付け投票を用いて最終結果を決定する。
モノリンガルトラックでは5位,クロスリンガルトラックでは7位であった。
システムコードは、https://github.com/warmth27/SemEval2025_Task7でリリースします。
関連論文リスト
- QUST_NLP at SemEval-2025 Task 7: A Three-Stage Retrieval Framework for Monolingual and Crosslingual Fact-Checked Claim Retrieval [0.13194391758295113]
本稿では,SemEval-2025 Task 7におけるQUST_NLPの関与について述べる。
ファクトチェックされたクレーム検索に特化して設計された3段階検索フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-12T07:06:40Z) - Duluth at SemEval-2025 Task 7: TF-IDF with Optimized Vector Dimensions for Multilingual Fact-Checked Claim Retrieval [0.0]
本稿では,SemEval-2025 Task 7 on Multilingual and Crosslingual Fact-Checked Claim Retrievalを提案する。
我々は,ベクトル次元とトークン化戦略を実験するTF-IDFベースの検索システムを実装した。
論文 参考訳(メタデータ) (2025-05-19T01:58:22Z) - Reinforcing Compositional Retrieval: Retrieving Step-by-Step for Composing Informative Contexts [67.67746334493302]
大規模言語モデル(LLM)は、多くのタスクにまたがる顕著な機能を示してきたが、複雑なタスクを扱うために外部のコンテキストに依存していることが多い。
我々は、このプロセスをマルコフ決定プロセス(MDP)としてモデル化するトリエンコーダシーケンシャルレトリバーを提案する。
提案手法は,サンプル間の依存関係を明示的にモデル化することの重要性を強調し,ベースラインを一貫して大幅に上回ることを示す。
論文 参考訳(メタデータ) (2025-04-15T17:35:56Z) - Advancing LLM Reasoning Generalists with Preference Trees [119.57169648859707]
推論に最適化された大規模言語モデル(LLM)のスイートであるEulusを紹介する。
Eurusモデルは、様々なベンチマークでオープンソースのモデルの間で最先端の結果を得る。
論文 参考訳(メタデータ) (2024-04-02T16:25:30Z) - Team QUST at SemEval-2024 Task 8: A Comprehensive Study of Monolingual
and Multilingual Approaches for Detecting AI-generated Text [0.1499944454332829]
本稿では,タスク8SemEval 2024におけるチームQUSTの参加について述べる。
最初にデータセット上でデータ拡張とクリーニングを行い、モデルのトレーニング効率と精度を高めた。
単言語課題では,従来のディープラーニング手法,MPU,ファインチューニング,アダプタ,アンサンブル手法を評価した。
論文 参考訳(メタデータ) (2024-02-19T08:22:51Z) - Ada-Retrieval: An Adaptive Multi-Round Retrieval Paradigm for Sequential
Recommendations [50.03560306423678]
本稿では,レコメンダシステムのための適応型マルチラウンド検索パラダイムであるAda-Retrievalを提案する。
Ada-Retrievalは、ユーザー表現を反復的に洗練し、全項目領域の潜在的な候補をよりよく捉えます。
論文 参考訳(メタデータ) (2024-01-12T15:26:40Z) - Recommender Systems with Generative Retrieval [58.454606442670034]
本稿では,対象候補の識別子を自己回帰的に復号する新たな生成検索手法を提案する。
そのために、各項目のセマンティックIDとして機能するために、意味論的に意味のあるコードワードを作成します。
提案手法を用いて学習した推薦システムは,様々なデータセット上での現在のSOTAモデルよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-05-08T21:48:17Z) - GMNLP at SemEval-2023 Task 12: Sentiment Analysis with Phylogeny-Based
Adapters [35.36372251094268]
本報告では,SemEval-2023共有タスクAfriSenti-SemEvalに対するGMUの感情分析システムについて述べる。
AfroXLMR-largeはアフリカ語で訓練された訓練済み多言語言語モデルである。
本システムでは,5:Amharicで最高のF1スコアを達成し,F1スコアを6.2ポイント上回っている。
論文 参考訳(メタデータ) (2023-04-25T16:39:51Z) - FiSSA at SemEval-2020 Task 9: Fine-tuned For Feelings [2.362412515574206]
本稿では,スペイン語と英語の混在するソーシャルメディアデータを用いた感情分類手法を提案する。
単言語モデルと多言語モデルの両方を標準微調整法を用いて検討する。
2段階の微調整により、ベースモデルよりも感情分類性能が向上するが、大規模多言語XLM-RoBERTaモデルではF1スコアが最適である。
論文 参考訳(メタデータ) (2020-07-24T14:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。