論文の概要: CHILL at SemEval-2025 Task 2: You Can't Just Throw Entities and Hope -- Make Your LLM to Get Them Right
- arxiv url: http://arxiv.org/abs/2506.13070v1
- Date: Mon, 16 Jun 2025 03:26:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.399554
- Title: CHILL at SemEval-2025 Task 2: You Can't Just Throw Entities and Hope -- Make Your LLM to Get Them Right
- Title(参考訳): CHILL at SemEval-2025 Task 2: You can't just Throw Entities and Hope -- make your LLM to get them Right
- Authors: Jaebok Lee, Yonghyun Ryu, Seongmin Park, Yoonjung Choi,
- Abstract要約: エンティティ・アウェア・マシン翻訳(EA-MT)におけるSemEval 2025 Task 2のアプローチについて述べる。
提案システムは,大規模言語モデル(LLM)を用いた検索型拡張生成(RAG)と反復型自己精製手法の2つの主要なアプローチを組み合わせることで,名前付きエンティティの翻訳精度を向上させることを目的としている。
このシステムの特徴は自己評価機構であり、LLMはエンティティ翻訳の精度と全体的な翻訳品質の2つの重要な基準に基づいて、自身の翻訳を評価する。
- 参考スコア(独自算出の注目度): 3.326216109891044
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we describe our approach for the SemEval 2025 Task 2 on Entity-Aware Machine Translation (EA-MT). Our system aims to improve the accuracy of translating named entities by combining two key approaches: Retrieval Augmented Generation (RAG) and iterative self-refinement techniques using Large Language Models (LLMs). A distinctive feature of our system is its self-evaluation mechanism, where the LLM assesses its own translations based on two key criteria: the accuracy of entity translations and overall translation quality. We demonstrate how these methods work together and effectively improve entity handling while maintaining high-quality translations.
- Abstract(参考訳): 本稿では,SemEval 2025 Task 2 on Entity-Aware Machine Translation (EA-MT)について述べる。
本システムは,言語モデル (LLM) を用いた検索型拡張生成 (RAG) と反復型自己精製技術を組み合わせることで,名前付きエンティティの翻訳精度を向上させることを目的としている。
このシステムの特徴は自己評価機構であり、LLMはエンティティ翻訳の精度と全体的な翻訳品質の2つの重要な基準に基づいて、自身の翻訳を評価する。
これらの手法が協調してどのように機能し、高品質な翻訳を維持しながらエンティティハンドリングを効果的に改善するかを実証する。
関連論文リスト
- Improving Retrieval-Augmented Neural Machine Translation with Monolingual Data [9.67203800171351]
多くの設定では、ドメイン内のモノリンガルなターゲットサイドコーパスがしばしば利用可能である。
この研究は、対象言語に直接関連するセグメントを取得することによって、そのようなリソースを活用する方法を探究する。
2つのRANMTアーキテクチャを用いた実験では、まず、制御された環境で言語横断的な目的の利点を実演する。
次に,本手法を,対象のモノリンガルリソースが並列データの量よりはるかに多い実世界のセットアップに示す。
論文 参考訳(メタデータ) (2025-04-30T15:41:03Z) - HausaNLP at SemEval-2025 Task 2: Entity-Aware Fine-tuning vs. Prompt Engineering in Entity-Aware Machine Translation [2.17880235420183]
本稿では,エンティティ対応機械翻訳(EA-MT)における共有タスクであるSemEval 2025 Task 2について述べる。
このタスクの目的は、英語の文をターゲット言語に正確に翻訳できる翻訳モデルを開発することである。
本稿では、我々が採用したさまざまなシステムについて述べ、その結果を詳述し、実験から得られた洞察について議論する。
論文 参考訳(メタデータ) (2025-03-25T14:29:43Z) - LLM-based Translation Inference with Iterative Bilingual Understanding [52.46978502902928]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - TasTe: Teaching Large Language Models to Translate through Self-Reflection [82.83958470745381]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
本稿では,自己回帰を通した翻訳を行うTasTeフレームワークを提案する。
WMT22ベンチマークにおける4つの言語方向の評価結果から,既存の手法と比較して,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-12T17:21:21Z) - TEaR: Improving LLM-based Machine Translation with Systematic Self-Refinement [26.26493253161022]
大規模言語モデル(LLM)は機械翻訳(MT)において印象的な結果を得た
我々は,体系的LLMに基づく自己精製翻訳フレームワーク,textbfTEaRを紹介する。
論文 参考訳(メタデータ) (2024-02-26T07:58:12Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Exploring Human-Like Translation Strategy with Large Language Models [93.49333173279508]
大規模言語モデル(LLM)は、一般的なシナリオにおいて印象的な機能を示している。
本研究は,マルチアスペクト・プロンプトと選択のためのMAPSフレームワークを提案する。
品質推定に基づく選択機構を用いて,ノイズや不ヘッピーな知識を抽出する。
論文 参考訳(メタデータ) (2023-05-06T19:03:12Z) - Ensemble Fine-tuned mBERT for Translation Quality Estimation [0.0]
本稿では,WMT 2021 QE共有タスクの提出について論じる。
提案システムは多言語BERT(mBERT)に基づく回帰モデルのアンサンブルである。
ピアソンの相関に匹敵する性能を示し、いくつかの言語対に対してMAE/RMSEのベースラインシステムを破る。
論文 参考訳(メタデータ) (2021-09-08T20:13:06Z) - On the Limitations of Cross-lingual Encoders as Exposed by
Reference-Free Machine Translation Evaluation [55.02832094101173]
クロスランガルエンコーダの評価は通常、教師付き下流タスクにおけるゼロショットのクロスランガル転送または教師なしのクロスランガル類似性によって行われる。
本稿では、ソーステキストと(低品質な)システム翻訳を直接比較するMT(Reference-free Machine Translation)の評価について述べる。
事前学習したM-BERTとLASERで得られた最先端の言語間セマンティック表現に基づいて,様々なメトリクスを体系的に検討する。
参照なしMT評価において,セマンティックエンコーダとしての性能は低く,その2つの重要な限界を同定する。
論文 参考訳(メタデータ) (2020-05-03T22:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。