論文の概要: LyriCAR: A Difficulty-Aware Curriculum Reinforcement Learning Framework For Controllable Lyric Translation
- arxiv url: http://arxiv.org/abs/2510.19967v1
- Date: Wed, 22 Oct 2025 18:57:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.638209
- Title: LyriCAR: A Difficulty-Aware Curriculum Reinforcement Learning Framework For Controllable Lyric Translation
- Title(参考訳): LyriCAR:制御可能な歌詞翻訳のための難易度の高いカリキュラム強化学習フレームワーク
- Authors: Le Ren, Xiangjian Zeng, Qingqiang Wu, Ruoxuan Liang,
- Abstract要約: 制御可能な歌詞翻訳のための新しいフレームワークであるLyriCARを提案する。
LyriCARは難易度の高いカリキュラムデザイナと適応型カリキュラム戦略を導入している。
EN-ZH歌詞翻訳タスクの実験は、LyriCARが最先端の結果を達成することを示す。
- 参考スコア(独自算出の注目度): 6.002361055002669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lyric translation is a challenging task that requires balancing multiple musical constraints. Existing methods often rely on hand-crafted rules and sentence-level modeling, which restrict their ability to internalize musical-linguistic patterns and to generalize effectively at the paragraph level, where cross-line coherence and global rhyme are crucial. In this work, we propose LyriCAR, a novel framework for controllable lyric translation that operates in a fully unsupervised manner. LyriCAR introduces a difficulty-aware curriculum designer and an adaptive curriculum strategy, ensuring efficient allocation of training resources, accelerating convergence, and improving overall translation quality by guiding the model with increasingly complex challenges. Extensive experiments on the EN-ZH lyric translation task show that LyriCAR achieves state-of-the-art results across both standard translation metrics and multi-dimensional reward scores, surpassing strong baselines. Notably, the adaptive curriculum strategy reduces training steps by nearly 40% while maintaining superior performance. Code, data and model can be accessed at https://github.com/rle27/LyriCAR.
- Abstract(参考訳): 歌詞翻訳は、複数の音楽的制約のバランスを必要とする難しい作業である。
既存の手法は、しばしば手作りの規則や文レベルのモデリングに依存しており、これは音楽言語パターンの内在化や、クロスラインのコヒーレンスとグローバルな韻律が不可欠である段落レベルで効果的に一般化する能力を制限する。
本稿では,LyriCARを提案する。LyriCARは,完全に教師なしで動作可能な,制御可能な歌詞翻訳のための新しいフレームワークである。
LyriCARは、困難を意識したカリキュラムデザイナと適応的なカリキュラム戦略を導入し、トレーニングリソースの効率的なアロケーションを確保し、収束を加速し、より複雑な課題にモデルを導くことで全体的な翻訳品質を向上させる。
EN-ZHの歌詞翻訳タスクに関する大規模な実験は、LyriCARが標準翻訳指標と多次元報酬スコアの両方で最先端の結果を達成し、強いベースラインを超えたことを示している。
特に、適応的なカリキュラム戦略は、優れたパフォーマンスを維持しながら、トレーニング手順を40%近く削減します。
コード、データ、モデルはhttps://github.com/rle27/LyriCARでアクセスできる。
関連論文リスト
- SA-GCS: Semantic-Aware Gaussian Curriculum Scheduling for UAV Vision-Language Navigation [9.948269990112365]
Unmanned Aerial Vehicle (UAV) Vision-Language Navigation (VLN) は、エージェントが複雑な環境で目標を正確にローカライズし、飛行経路を計画できるようにすることを目的としている。
VLM(Vision-Language Models)の最近の進歩は、このタスクに強力な意味理解をもたらした。
強化学習は、一般化をさらに改善するために、トレーニング後の有望な戦略として登場した。
論文 参考訳(メタデータ) (2025-08-01T07:35:48Z) - Transferable Modeling Strategies for Low-Resource LLM Tasks: A Prompt and Alignment-Based Approach [1.3286097954612326]
本稿では,低リソース言語シナリオにおける大規模言語モデルの伝達と適応能力の制限について論じる。
知識伝達モジュールとパラメータ効率のよい微調整戦略を組み合わせた統合フレームワークを提案する。
大規模言語モデルの一般的な機能を維持しながら、タスク固有の適応性を向上させる。
論文 参考訳(メタデータ) (2025-07-01T09:34:49Z) - Tower+: Bridging Generality and Translation Specialization in Multilingual LLMs [20.94201888693295]
Tower+は,翻訳機能と多言語汎用テキスト機能の両方にわたって,強力なパフォーマンスを実現するように設計されたモデルスイートである。
学習の各段階で、汎用タスクだけでなく、翻訳の性能を高めるためにデータを生成し、キュレートする。
この結果から,特定のビジネスドメインを最適化しながら,フロンティアモデルに対抗できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-06-20T15:30:06Z) - Trans-Zero: Self-Play Incentivizes Large Language Models for Multilingual Translation Without Parallel Data [64.4458540273004]
言語モデル(LLM)の単言語データと本質的な多言語知識のみを活用するセルフプレイフレームワークを提案する。
実験により、このアプローチは大規模並列データに基づいて訓練されたモデルの性能と一致するだけでなく、非英語翻訳の方向でも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-20T16:20:30Z) - Scalable Language Model with Generalized Continual Learning [58.700439919096155]
The Joint Adaptive Re-ization (JARe) is integrated with Dynamic Task-related Knowledge Retrieval (DTKR) to enable adapt adjust of language model based on specific downstream task。
提案手法は,様々なバックボーンやベンチマーク上での最先端性能を実証し,最小限の忘れを伴い,フルセットおよび少数ショットのシナリオにおいて効果的な連続学習を実現する。
論文 参考訳(メタデータ) (2024-04-11T04:22:15Z) - TIM: Teaching Large Language Models to Translate with Comparison [78.66926087162672]
本稿では,LLMに翻訳学習を教えるために,サンプルを用いた新しいフレームワークを提案する。
我々のアプローチは、正しい翻訳例と間違った翻訳例をモデルに提示し、好みの損失を使ってモデルの学習をガイドすることである。
本研究は,翻訳タスクのための微調整LDMの新しい視点を提供し,高品質な翻訳を実現するための有望なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-10T08:15:40Z) - Learning from Bootstrapping and Stepwise Reinforcement Reward: A
Semi-Supervised Framework for Text Style Transfer [30.622772801446132]
テキストスタイル転送のための半教師付きフレームワークを提案する。
まず、擬似並列ペアを自動構築し、教師付きで学習プロセスをブートストラップする。
そして、モデルは強化報酬を通じてラベルなしのデータから学習する。
論文 参考訳(メタデータ) (2022-05-19T05:18:06Z) - Data-Driven Adaptive Simultaneous Machine Translation [51.01779863078624]
適応型SimulMTのための新しい,効率的なトレーニング手法を提案する。
本手法は,翻訳の質やレイテンシという点で,全ての強靭なベースラインを上回ります。
論文 参考訳(メタデータ) (2022-04-27T02:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。