論文の概要: SlangDIT: Benchmarking LLMs in Interpretative Slang Translation
- arxiv url: http://arxiv.org/abs/2505.14181v1
- Date: Tue, 20 May 2025 10:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.071175
- Title: SlangDIT: Benchmarking LLMs in Interpretative Slang Translation
- Title(参考訳): SlangDIT:解釈型スラング翻訳におけるLLMのベンチマーク
- Authors: Yunlong Liang, Fandong Meng, Jiaan Wang, Jie Zhou,
- Abstract要約: 本稿では,スラング翻訳タスク(SlangDIT)を紹介する。
言語間スラング検出、言語間スラング説明、現在のコンテキスト内のスラング翻訳の3つのサブタスクで構成されている。
まず、文にスラングが含まれているかどうかを識別し、スラングが多義的かどうかを判断し、その意味を解析する。
- 参考スコア(独自算出の注目度): 89.48208612476068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenge of slang translation lies in capturing context-dependent semantic extensions, as slang terms often convey meanings beyond their literal interpretation. While slang detection, explanation, and translation have been studied as isolated tasks in the era of large language models (LLMs), their intrinsic interdependence remains underexplored. The main reason is lacking of a benchmark where the two tasks can be a prerequisite for the third one, which can facilitate idiomatic translation. In this paper, we introduce the interpretative slang translation task (named SlangDIT) consisting of three sub-tasks: slang detection, cross-lingual slang explanation, and slang translation within the current context, aiming to generate more accurate translation with the help of slang detection and slang explanation. To this end, we construct a SlangDIT dataset, containing over 25k English-Chinese sentence pairs. Each source sentence mentions at least one slang term and is labeled with corresponding cross-lingual slang explanation. Based on the benchmark, we propose a deep thinking model, named SlangOWL. It firstly identifies whether the sentence contains a slang, and then judges whether the slang is polysemous and analyze its possible meaning. Further, the SlangOWL provides the best explanation of the slang term targeting on the current context. Finally, according to the whole thought, the SlangOWL offers a suitable translation. Our experiments on LLMs (\emph{e.g.}, Qwen2.5 and LLama-3.1), show that our deep thinking approach indeed enhances the performance of LLMs where the proposed SLangOWL significantly surpasses the vanilla models and supervised fine-tuned models without thinking.
- Abstract(参考訳): スラング翻訳の課題は、文脈依存のセマンティック拡張をキャプチャすることにある。
スラングの検出、説明、翻訳は、大規模言語モデル(LLM)の時代に孤立したタスクとして研究されてきたが、本質的な相互依存は未解明のままである。
主な理由は、2つのタスクが第3のタスクの前提条件となり得るベンチマークが欠如しているためである。
本稿では,スラング検出,言語間スラング説明,スラング翻訳の3つのサブタスクからなる解釈的スラング翻訳タスク(SlangDIT)を紹介する。
この目的のために、英語と中国語の文ペアを25万以上含むSlangDITデータセットを構築した。
各ソース文は少なくとも1つのスラング項に言及し、対応する言語間スラングの説明でラベル付けされる。
ベンチマークに基づいて,SlangOWLという深層思考モデルを提案する。
まず、文がスラングを含むかどうかを識別し、次にスラングが多文であるかどうかを判断し、その意味を解析する。
さらに、SlangOWLは現在のコンテキストをターゲットとするslang用語の最もよい説明を提供する。
最後に、全体的な考えによると、SlangOWLは適切な翻訳を提供する。
我々のLLM(\emph{e g }, Qwen2.5, LLama-3.1)に関する実験は,提案したSLangOWLがバニラモデルと教師付き微調整モデルに大きく勝るLLMの性能向上を実際に示している。
関連論文リスト
- Deep Reasoning Translation via Reinforcement Learning [77.41383117199227]
我々は、強化学習を通して自由翻訳を学ぶ深層推論翻訳モデルDeepTransを紹介する。
原文が与えられた場合、報酬モデルは、強化学習中にそれらを思考し、自由に翻訳する方法を深層翻訳モデルに教える。
実験の結果,DeepTransは文学翻訳における性能を16.3%向上させることがわかった。
論文 参考訳(メタデータ) (2025-04-14T12:40:39Z) - DRT: Deep Reasoning Translation via Long Chain-of-Thought [89.48208612476068]
本稿では,長いCoTをニューラルネットワーク翻訳(MT)に適用する試みであるDRTを紹介する。
まず、既存の文献から模範文や比喩文を含む文を抽出し、その後、長い思考を通してこれらの文を翻訳する多エージェントフレームワークを開発する。
Qwen2.5とLLama-3.1をバックボーンとして使用することで、DRTモデルは機械翻訳中に思考プロセスを学ぶことができる。
論文 参考訳(メタデータ) (2024-12-23T11:55:33Z) - Improving LLM Abilities in Idiomatic Translation [2.8692611791027893]
NLLBやGPTのような言語モデル(LLM)では、イディオムの翻訳は依然として難しい課題である。
我々のゴールは、慣用的な言語のLLM処理を改善することで、翻訳の忠実度を高めることである。
文化的なニュアンスを維持し、翻訳されたテキストが意図と感情の共鳴を維持することを保証するため、これは大きな社会的影響を持つ。
論文 参考訳(メタデータ) (2024-07-03T21:34:26Z) - Incremental Comprehension of Garden-Path Sentences by Large Language Models: Semantic Interpretation, Syntactic Re-Analysis, and Attention [11.073959609358088]
本研究では,4つの大言語モデルを用いて,園芸パス文の処理と誤解釈の運命について検討する。
総合的な目標は、人間とLLMが庭道文の処理に一致しているかどうかを評価することである。
実験により,園芸道文の処理における人間とLLMの連携が期待できることが示された。
論文 参考訳(メタデータ) (2024-05-25T03:36:13Z) - That was the last straw, we need more: Are Translation Systems Sensitive
to Disambiguating Context? [64.38544995251642]
我々は、源泉に存在している意味的あいまいさ(本研究における英語)について研究する。
我々は、リテラルと図形の両方にオープンなイディオムに焦点を当てている。
現在のMTモデルは、たとえ文脈が比喩的解釈を示しているとしても、英語のイディオムを文字通りに翻訳する。
論文 参考訳(メタデータ) (2023-10-23T06:38:49Z) - Towards Effective Disambiguation for Machine Translation with Large
Language Models [65.80775710657672]
我々は「あいまいな文」を翻訳する大規模言語モデルの能力について研究する。
実験の結果,提案手法はDeepLやNLLBといった最先端システムと5つの言語方向のうち4つで一致し,性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-09-20T22:22:52Z) - Translate to Disambiguate: Zero-shot Multilingual Word Sense
Disambiguation with Pretrained Language Models [67.19567060894563]
事前訓練された言語モデル(PLM)は、豊富な言語間知識を学習し、多様なタスクでうまく機能するように微調整することができる。
C-WLT(Contextual Word-Level Translation)を用いた言語間単語感覚の捉え方の検討を行った。
モデルのサイズが大きくなるにつれて、PLMはより言語間単語認識の知識をエンコードし、WLT性能を改善するためのコンテキストを良くする。
論文 参考訳(メタデータ) (2023-04-26T19:55:52Z) - Semantically Informed Slang Interpretation [2.9097456604613745]
本稿では,クエリスラングに対する候補解釈の文脈的,意味的適切性を考慮した意味情報付きスラング解釈(SSI)フレームワークを提案する。
我々は、スラングの機械翻訳を英語から他の言語に拡張するために、同じフレームワークをいかに適用できるかを示す。
論文 参考訳(メタデータ) (2022-05-02T01:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。