論文の概要: Smoothie-Qwen: Post-Hoc Smoothing to Reduce Language Bias in Multilingual LLMs
- arxiv url: http://arxiv.org/abs/2507.05686v1
- Date: Tue, 08 Jul 2025 05:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.633096
- Title: Smoothie-Qwen: Post-Hoc Smoothing to Reduce Language Bias in Multilingual LLMs
- Title(参考訳): Smoothie-Qwen:多言語LLMにおける言語バイアス低減のためのポストホックスムーシング
- Authors: SeungWon Ji, Jungyup Lee, Jemin Kim, Sang Park, SeungJae Lee,
- Abstract要約: Smoothie-Qwenは、リトレーニングなしに言語のバイアスを軽減する軽量でポストホックな方法である。
提案手法はQwenモデルに適用し,意図しない中国語の出力を95%以上削減する。
- 参考スコア(独自算出の注目度): 4.881694369042022
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multilingual large language models (LLMs) often exhibit language confusion, a tendency to generate responses in a dominant language irrespective of the prompt's language. To address this, we propose Smoothie-Qwen, a lightweight, post-hoc method that mitigates language bias without retraining. This technique selectively adjusts token-level output probabilities to effectively suppress undesired language generation. Applied to the Qwen model, our method reduces unintended Chinese output by over 95% while preserving task accuracy on multilingual benchmarks. This work provides a practical and efficient solution for enhancing the language controllability of LLMs, making them more reliable for global applications.
- Abstract(参考訳): 多言語大言語モデル(LLM)は、しばしば言語混乱を示し、プロンプトの言語によらず、支配的な言語で応答を生成する傾向にある。
そこで本稿では,言語バイアスを軽減する軽量なポストホック手法であるSmoothie-Qwenを提案する。
この手法はトークンレベルの出力確率を選択的に調整し、不要な言語生成を効果的に抑制する。
提案手法はQwenモデルに適用され,多言語ベンチマークのタスク精度を維持しつつ,意図しない中国語の出力を95%以上削減する。
この研究は、LLMの言語制御性を高めるための実用的で効率的なソリューションを提供し、グローバルアプリケーションに対してより信頼性の高いものを提供する。
関連論文リスト
- Controlling Language Confusion in Multilingual LLMs [0.0]
大規模な言語モデルは、意図しない言語で応答が部分的にまたは完全に生成される現象である言語混乱に悩まされることが多い。
標準SFTに不要な出力スタイルのペナルティを付加したORPOは,高い復号温度でも言語に富んだ世代を効果的に抑制する。
この結果から,適切なペナルティ項を組み込むことで,限られたデータを用いた低リソース環境における言語混乱を軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-05-25T12:15:31Z) - Understanding and Mitigating Language Confusion in LLMs [76.96033035093204]
我々は,既存の英語および多言語プロンプトを用いた15の型的多様言語の評価を行った。
Llama Instruct と Mistral のモデルでは,言語的混乱の度合いが高いことがわかった。
言語混乱は,数発のプロンプト,多言語SFT,選好調整によって部分的に緩和できることがわかった。
論文 参考訳(メタデータ) (2024-06-28T17:03:51Z) - No Train but Gain: Language Arithmetic for training-free Language Adapters enhancement [59.37775534633868]
本稿では,学習不要な後処理が可能な言語演算法を提案する。
提案手法の有効性を,MAD-Xに基づく言語間スキームの3つの下流課題に適用した。
論文 参考訳(メタデータ) (2024-04-24T08:52:40Z) - PLUG: Leveraging Pivot Language in Cross-Lingual Instruction Tuning [46.153828074152436]
我々は、低リソース言語における命令チューニングを強化するために、ピボット言語ガイド生成手法を提案する。
モデルを訓練して、まずピボット言語で命令を処理し、次にターゲット言語で応答を生成する。
提案手法は,LLMの命令追従能力が平均29%向上したことを示す。
論文 参考訳(メタデータ) (2023-11-15T05:28:07Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。