論文の概要: System Report for CCL25-Eval Task 10: SRAG-MAV for Fine-Grained Chinese Hate Speech Recognition
- arxiv url: http://arxiv.org/abs/2507.18580v1
- Date: Thu, 24 Jul 2025 16:56:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:44.214668
- Title: System Report for CCL25-Eval Task 10: SRAG-MAV for Fine-Grained Chinese Hate Speech Recognition
- Title(参考訳): CCL25-Eval Task 10: SRAG-MAVによる中国語Hate音声認識
- Authors: Jiahao Wang, Ramen Liu, Longhui Zhang, Jing Li,
- Abstract要約: タスク再構成(TR)、自己検索型生成(SRAG)、マルチラウンド累積投票(MAV)を統合した新しいSRAG-MAVフレームワークを提案する。
提案手法は, 四重項抽出タスクを3重項抽出に再構成し, 文脈的プロンプトの生成にトレーニングセットからの動的検索を用い, 投票による多ラウンド推論を適用し, 出力安定性と性能を向上させる。
- 参考スコア(独自算出の注目度): 12.952821909188673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our system for CCL25-Eval Task 10, addressing Fine-Grained Chinese Hate Speech Recognition (FGCHSR). We propose a novel SRAG-MAV framework that synergistically integrates task reformulation(TR), Self-Retrieval-Augmented Generation (SRAG), and Multi-Round Accumulative Voting (MAV). Our method reformulates the quadruplet extraction task into triplet extraction, uses dynamic retrieval from the training set to create contextual prompts, and applies multi-round inference with voting to improve output stability and performance. Our system, based on the Qwen2.5-7B model, achieves a Hard Score of 26.66, a Soft Score of 48.35, and an Average Score of 37.505 on the STATE ToxiCN dataset, significantly outperforming baselines such as GPT-4o (Average Score 15.63) and fine-tuned Qwen2.5-7B (Average Score 35.365). The code is available at https://github.com/king-wang123/CCL25-SRAG-MAV.
- Abstract(参考訳): 本稿では,CCL25-Eval Task 10における中国語Hate Speech Recognition(FGCHSR)について述べる。
本稿では,タスク再構成(TR),自己回復型生成(SRAG),マルチラウンド累積投票(MAV)を相乗的に統合する新しいSRAG-MAVフレームワークを提案する。
提案手法は, 四重項抽出タスクを3重項抽出に再構成し, 文脈的プロンプトの生成にトレーニングセットからの動的検索を用い, 投票による多ラウンド推論を適用し, 出力安定性と性能を向上させる。
このシステムは,Qwen2.5-7Bモデルに基づいて,26.66のハードスコア,48.35のソフトスコア,STATE ToxiCNデータセットの平均スコア37.505のハードスコアを達成し,GPT-4o(平均スコア15.63)やQwen2.5-7B(平均スコア35.365)などのベースラインを大幅に上回った。
コードはhttps://github.com/king-wang123/CCL25-SRAG-MAVで公開されている。
関連論文リスト
- Deep Retrieval at CheckThat! 2025: Identifying Scientific Papers from Implicit Social Media Mentions via Hybrid Retrieval and Re-Ranking [4.275139302875217]
CLEF CheckThat! 2025コンペティションのサブタスク4bに対するDeep Retrievalチームの方法論と結果を示す。
本稿では,語彙的精度,意味的一般化,文脈的再ランク付けを併用したハイブリッド検索パイプラインを提案する。
提案手法は, 開発セットで76.46%, 隠されたテストセットで66.43%の平均相反ランクを5 (MRR@5) 達成する。
論文 参考訳(メタデータ) (2025-05-29T08:55:39Z) - The Multimodal Information Based Speech Processing (MISP) 2025 Challenge: Audio-Visual Diarization and Recognition [95.95622220065884]
MISP 2025 Challengeは、ビデオモダリティをオーディオと組み合わせることで、マルチモーダル、マルチデバイスミーティングの書き起こしに焦点を当てている。
最高の性能のシステムはベースラインよりも大幅に改善された。
論文 参考訳(メタデータ) (2025-05-20T06:11:51Z) - Retrieval-Augmented Generation for Domain-Specific Question Answering: A Case Study on Pittsburgh and CMU [3.1787418271023404]
我々は、ドメイン固有の質問に答えるために、関連文書を含む大規模言語モデルを提供するために、検索型拡張生成システム(RAG)を設計した。
我々は,グリーディスクレーピング戦略を用いて1,800以上のサブページを抽出し,手動とMistralの生成した質問応答ペアを組み合わせたハイブリッドアノテーションプロセスを用いた。
我々のRAGフレームワークはBM25とFAISSレトリバーを統合し、文書検索精度を向上させるリランカで強化した。
論文 参考訳(メタデータ) (2024-11-20T20:10:43Z) - Expanding on EnCLAP with Auxiliary Retrieval Model for Automated Audio Captioning [4.345953264604522]
本稿では,EnCLAP音声キャプションフレームワークに基づくアプローチを開発する。
基礎となるコンポーネントの変更と再品位プロセスの組み入れについて概説する。
提案システムでは,タスク6のFENSEスコアが0.542,タスク8のmAP@10スコアが0.386,ベースラインモデルが大幅に向上した。
論文 参考訳(メタデータ) (2024-09-02T10:47:07Z) - MLCA-AVSR: Multi-Layer Cross Attention Fusion based Audio-Visual Speech Recognition [62.89464258519723]
異なるレベルのオーディオ/視覚エンコーダに融合することで、各モードの表現を促進する多層クロスアテンション融合に基づくAVSR手法を提案する。
提案手法は第1位システムを超え,新たなSOTA cpCERの29.13%をこのデータセット上に構築する。
論文 参考訳(メタデータ) (2024-01-07T08:59:32Z) - MIA 2022 Shared Task: Evaluating Cross-lingual Open-Retrieval Question
Answering for 16 Diverse Languages [54.002969723086075]
16言語に類型的に多様である言語における言語横断的オープン-検索型問合せシステムの評価を行った。
反復的にマイニングされた多様な負の例を利用する最良のシステムは32.2 F1となり、ベースラインを4.5ポイント上回る。
第2のベストシステムは文書検索にエンティティを意識した文脈表現を使用し、タミル(20.8 F1)の大幅な改善を実現している。
論文 参考訳(メタデータ) (2022-07-02T06:54:10Z) - Sequence Transduction with Graph-based Supervision [96.04967815520193]
ラベルのグラフ表現を受け入れるためにRNN-T損失を一般化するトランスデューサ目的関数を提案する。
CTC型格子を用いたトランスデューサベースのASRは,標準RNN-Tよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-11-01T21:51:42Z) - Advanced Long-context End-to-end Speech Recognition Using
Context-expanded Transformers [56.56220390953412]
コンフォーメータアーキテクチャを導入することで、精度をさらに向上させ、以前の作業を拡張します。
拡張トランスフォーマーは、最先端のエンドツーエンドのASR性能を提供する。
論文 参考訳(メタデータ) (2021-04-19T16:18:00Z) - The HUAWEI Speaker Diarisation System for the VoxCeleb Speaker
Diarisation Challenge [6.6238321827660345]
本稿では,VoxCeleb Speaker Recognition Challenge 2020の話者ダイアリゼーショントラック(Track 4)のシステム構成について述べる。
我々のダイアリゼーションシステムは、入力音声信号のフロントエンドとして、よく訓練されたニューラルネットワークに基づく音声強調モデルから成り立っている。
論文 参考訳(メタデータ) (2020-10-22T12:42:07Z) - You Do Not Need More Data: Improving End-To-End Speech Recognition by
Text-To-Speech Data Augmentation [59.31769998728787]
我々は、ASRトレーニングデータベース上にTSシステムを構築し、合成音声でデータを拡張し、認識モデルを訓練する。
テストクリーンはWER 4.3%,他のテストクリーンは13.5%で、このシステムはLibriSpeechトレインクリーン100で訓練されたエンドツーエンドASRの競争結果を確立している。
論文 参考訳(メタデータ) (2020-05-14T17:24:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。