論文の概要: Steering LLMs toward Korean Local Speech: Iterative Refinement Framework for Faithful Dialect Translation
- arxiv url: http://arxiv.org/abs/2511.06680v1
- Date: Mon, 10 Nov 2025 03:52:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.065275
- Title: Steering LLMs toward Korean Local Speech: Iterative Refinement Framework for Faithful Dialect Translation
- Title(参考訳): 韓国のローカル音声に対するLLMのステアリング--忠実翻訳のための反復的リファインメントフレームワーク
- Authors: Keunhyeung Park, Seunguk Yu, Youngbin Kim,
- Abstract要約: DIA-REFINEはゴール指向の包括的方言翻訳のためのフレームワークである。
本研究では,言語変化を定量化するための方言忠実度スコア (DFS) と,方言翻訳の成功度を測定するためのターゲット方言比 (TDR) を導入する。
我々の研究は、ゴール指向の包括的方言翻訳のための堅牢なフレームワークを確立する。
- 参考スコア(独自算出の注目度): 17.99472063920348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Standard-to-dialect machine translation remains challenging due to a persistent dialect gap in large language models and evaluation distortions inherent in n-gram metrics, which favor source copying over authentic dialect translation. In this paper, we propose the dialect refinement (DIA-REFINE) framework, which guides LLMs toward faithful target dialect outputs through an iterative loop of translation, verification, and feedback using external dialect classifiers. To address the limitations of n-gram-based metrics, we introduce the dialect fidelity score (DFS) to quantify linguistic shift and the target dialect ratio (TDR) to measure the success of dialect translation. Experiments on Korean dialects across zero-shot and in-context learning baselines demonstrate that DIA-REFINE consistently enhances dialect fidelity. The proposed metrics distinguish between False Success cases, where high n-gram scores obscure failures in dialectal translation, and True Attempt cases, where genuine attempts at dialectal translation yield low n-gram scores. We also observed that models exhibit varying degrees of responsiveness to the framework, and that integrating in-context examples further improves the translation of dialectal expressions. Our work establishes a robust framework for goal-directed, inclusive dialect translation, providing both rigorous evaluation and critical insights into model performance.
- Abstract(参考訳): 標準方言機械翻訳は、大きな言語モデルにおける方言の持続的ギャップとn-gramのメトリクスに固有の評価歪みにより、真の方言翻訳よりもソースコピーが好ましいため、依然として困難である。
本稿では,外部方言分類器を用いた翻訳,検証,フィードバックの反復ループを通じて,LLMを忠実なターゲット方言出力へ誘導する方言改良(DIA-REFINE)フレームワークを提案する。
n-gram-based metrics の限界に対処するため,言語変化を定量化するための方言忠実度スコア (DFS) と,方言翻訳の成功度を測定するためのターゲット方言比 (TDR) を導入する。
ゼロショットおよびインコンテクスト学習ベースラインにわたる韓国方言の実験は、DIA-REFINEが連続的に方言の忠実性を高めることを示す。
提案手法は, 方言翻訳において高いn-gramスコアが不明瞭な失敗を示す偽の成功事例と, 真の方言翻訳の試みが低いn-gramスコアをもたらす真の試行事例とを区別する。
また、モデルがフレームワークに対して様々な応答性を示し、文脈内例の統合により方言表現の翻訳がさらに改善されることも観察した。
我々の研究は、厳密な評価とモデル性能に対する批判的な洞察を提供する、ゴール指向の包括的方言翻訳のための堅牢なフレームワークを確立する。
関連論文リスト
- Languages in Multilingual Speech Foundation Models Align Both Phonetically and Semantically [58.019484208091534]
事前訓練された言語モデル(LM)における言語間アライメントは、テキストベースのLMの効率的な転送を可能にしている。
テキストに基づく言語間アライメントの発見と手法が音声に適用されるかどうかについては、未解決のままである。
論文 参考訳(メタデータ) (2025-05-26T07:21:20Z) - LLM-Based Evaluation of Low-Resource Machine Translation: A Reference-less Dialect Guided Approach with a Refined Sylheti-English Benchmark [1.3927943269211591]
本稿では,Large Language Models(LLMs)に基づく機械翻訳評価を強化する包括的フレームワークを提案する。
我々は、Sylheti- English文ペア、対応する機械翻訳、およびネイティブ話者が注釈付けしたダイレクトアセスメント(DA)スコアを組み込むことで、ONUBADデータセットを拡張した。
評価の結果,提案したパイプラインは既存の手法より常に優れており,スピアマン相関において+0.1083の高利得が得られることがわかった。
論文 参考訳(メタデータ) (2025-05-18T07:24:13Z) - When LLMs Struggle: Reference-less Translation Evaluation for Low-resource Languages [9.138590152838754]
セグメントレベルの品質評価(QE)は言語間理解の難しい課題である。
ゼロ/フェーショットシナリオにおいて,大規模言語モデル (LLM) を包括的に評価する。
この結果から,エンコーダを用いた微調整QEモデルでは,プロンプトベースアプローチの方が優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-01-08T12:54:05Z) - Assessing Dialect Fairness and Robustness of Large Language Models in Reasoning Tasks [68.33068005789116]
本稿では、標準英語とAAVEで1.2K以上の並列クエリペアを含むベンチマークであるReDialを紹介する。
我々は、GPT、Claude、Llama、Mistral、Phiモデルファミリーなど、広く使われているモデルを評価した。
我々の研究は、方言クエリにおけるLLMバイアスを分析するための体系的で客観的な枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T18:44:23Z) - Modeling Orthographic Variation in Occitan's Dialects [3.038642416291856]
大規模多言語モデルは、前処理時のスペル正規化の必要性を最小限に抑える。
以上の結果から,複数言語モデルでは,前処理時のスペル正規化の必要性が最小限に抑えられていることが示唆された。
論文 参考訳(メタデータ) (2024-04-30T07:33:51Z) - Dialect-robust Evaluation of Generated Text [40.85375247260744]
NLG評価指標の目標として,方言の頑健性と方言認識を定式化する。
このスイートを現在の最先端のメトリクスに適用すると、それらが方言ロバストではないことが示される。
論文 参考訳(メタデータ) (2022-11-02T07:12:23Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - When Does Translation Require Context? A Data-driven, Multilingual
Exploration [71.43817945875433]
談話の適切な処理は機械翻訳(MT)の品質に大きく貢献する
文脈認識型MTにおける最近の研究は、評価中に少量の談話現象を標的にしようとしている。
談話現象のモデル性能を識別・評価するタグの集合である,多言語談話認識ベンチマークを開発した。
論文 参考訳(メタデータ) (2021-09-15T17:29:30Z) - Improving Multilingual Translation by Representation and Gradient
Regularization [82.42760103045083]
表現レベルと勾配レベルの両方でNMTモデルを正規化するための共同手法を提案する。
提案手法は,オフターゲット翻訳の発生率の低減とゼロショット翻訳性能の向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-09-10T10:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。