論文の概要: NBF at SemEval-2025 Task 5: Light-Burst Attention Enhanced System for Multilingual Subject Recommendation
- arxiv url: http://arxiv.org/abs/2505.03711v1
- Date: Tue, 06 May 2025 17:33:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.498883
- Title: NBF at SemEval-2025 Task 5: Light-Burst Attention Enhanced System for Multilingual Subject Recommendation
- Title(参考訳): SBF at SemEval-2025 Task 5: Light-Burst Attention Enhanced System for Multilingual Subject Recommendation (英語)
- Authors: Baharul Islam, Nasim Ahmad, Ferdous Ahmed Barbhuiya, Kuntal Dey,
- Abstract要約: 本稿では,言語間の主題分類に着目したSemEval 2025 Task 5を提案する。
提案手法は, 学習中のバイリンガルデータを活用し, 負のサンプリングとマージンに基づく検索を併用する。
提案手法は, 資源制約下での情報収集に有効であるが, 改善の余地は残っている。
- 参考スコア(独自算出の注目度): 2.5311562666866494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present our system submission for SemEval 2025 Task 5, which focuses on cross-lingual subject classification in the English and German academic domains. Our approach leverages bilingual data during training, employing negative sampling and a margin-based retrieval objective. We demonstrate that a dimension-as-token self-attention mechanism designed with significantly reduced internal dimensions can effectively encode sentence embeddings for subject retrieval. In quantitative evaluation, our system achieved an average recall rate of 32.24% in the general quantitative setting (all subjects), 43.16% and 31.53% of the general qualitative evaluation methods with minimal GPU usage, highlighting their competitive performance. Our results demonstrate that our approach is effective in capturing relevant subject information under resource constraints, although there is still room for improvement.
- Abstract(参考訳): 本稿では,英語とドイツ語の学術領域における言語間の主題分類に焦点を当てたSemEval 2025 Task 5を提案する。
提案手法は, 学習中のバイリンガルデータを活用し, 負のサンプリングとマージンに基づく検索を併用する。
本研究では, 内部次元を著しく削減した次元認識型自己認識機構により, 文の埋め込みを効果的に符号化できることを実証する。
定量的評価では, 平均リコール率32.24%, 定性評価手法の43.16%, 31.53%をGPUの最小使用量で達成し, 競合性能を強調した。
提案手法は, 資源制約下での情報収集に有効であるが, 改善の余地は残っている。
関連論文リスト
- Fane at SemEval-2025 Task 10: Zero-Shot Entity Framing with Large Language Models [25.283401945003277]
我々は,大規模言語モデル (LLM) のゼロショット機能の評価を行い,フレーミングの役割を分類する。
以上の結果から,まず広い役割ときめ細かな役割を同定する階層的アプローチが,単一段階の分類より優れていることが示唆された。
論文 参考訳(メタデータ) (2025-04-29T07:10:53Z) - ZJUKLAB at SemEval-2025 Task 4: Unlearning via Model Merging [43.45477240307602]
本稿では,ZJUKLABチームによるSemEval-2025 Task 4: Unlearning Sensitive Content from Large Language Modelsを提案する。
本課題は,大規模言語モデルからセンシティブな知識を選択的に消去することを目的としている。
本稿では,2つの専門モデルとよりバランスのとれた未学習モデルを組み合わせることによって,モデルマージを活用するアンラーニングシステムを提案する。
論文 参考訳(メタデータ) (2025-03-27T02:03:25Z) - How Does Quantization Affect Multilingual LLMs? [50.867324914368524]
量子化技術は、大規模な言語モデルの推論速度と展開を改善するために広く使われている。
量子化多言語LLMの徹底的な分析を行い、言語間の性能と様々なスケールに焦点をあてる。
論文 参考訳(メタデータ) (2024-07-03T15:39:40Z) - Evaluating the IWSLT2023 Speech Translation Tasks: Human Annotations, Automatic Metrics, and Segmentation [50.60733773088296]
音声言語翻訳国際ワークショップ(IWSLT 2023)における共有タスクの結果を総合的に評価する。
本稿では,セグメントコンテキストによる自動回帰と直接評価に基づく効果的な評価戦略を提案する。
分析の結果,1) 提案した評価戦略は頑健であり,他の種類の人的判断とよく相関している,2) 自動測定基準は通常,必ずしも直接評価スコアとよく関連しているわけではない,3) COMET は chrF よりもわずかに強い自動測定基準である,といった結果を得た。
論文 参考訳(メタデータ) (2024-06-06T09:18:42Z) - On the Robustness of Language Guidance for Low-Level Vision Tasks: Findings from Depth Estimation [71.72465617754553]
対象中心の3次元空間関係を伝達する低レベルな文を生成し,これらを追加言語として組み込んで,深度推定における下流の影響を評価する。
我々の重要な発見は、現在の言語誘導深度推定器がシーンレベルの記述のみを最適に実行することである。
追加データを活用するにもかかわらず、これらの手法は敵の直接攻撃や分散シフトの増加に伴う性能低下に対して堅牢ではない。
論文 参考訳(メタデータ) (2024-04-12T15:35:20Z) - Little Giants: Exploring the Potential of Small LLMs as Evaluation
Metrics in Summarization in the Eval4NLP 2023 Shared Task [53.163534619649866]
本稿では,大規模言語モデルに品質評価の課題を扱えるように,プロンプトベースの手法の有効性を評価することに焦点を当てる。
我々は,標準的なプロンプト,アノテータ命令によって通知されるプロンプト,イノベーティブなチェーン・オブ・シークレットプロンプトなど,様々なプロンプト技術を用いて,系統的な実験を行った。
我々の研究は、これらのアプローチを"小さな"オープンソースモデル(orca_mini_v3_7B)を使って組み合わせることで、競争結果が得られることを示した。
論文 参考訳(メタデータ) (2023-11-01T17:44:35Z) - Demonstrations Are All You Need: Advancing Offensive Content Paraphrasing using In-Context Learning [10.897468059705238]
監督されたパラフレーズは、意味と意図を維持するために大量のラベル付きデータに大きく依存している。
本稿では,大規模言語モデル(LLM)を用いたICL(In-Context Learning)を探索し,実践者を支援することを目的とする。
本研究は, 実演数と順序, 即時指導の排除, 測定毒性の低下など, 重要な要因に焦点を当てた。
論文 参考訳(メタデータ) (2023-10-16T16:18:55Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。