論文の概要: The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
- arxiv url: http://arxiv.org/abs/2505.24119v1
- Date: Fri, 30 May 2025 01:32:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.723754
- Title: The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It
- Title(参考訳): 多言語LDM安全研究の現状:言語ギャップの測定から誤用まで
- Authors: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia Kreutzer,
- Abstract要約: 私たちは、2020年から2024年にかけての300近い出版物を、主要なNLPカンファレンスや*ACLのワークショップでレビューします。
英語以外の言語が独立した言語として研究されることはめったになく、英語の安全研究が言語ドキュメントの実践に乏しいことを観察する。
我々の調査と提案された方向性に基づいて、この分野は、多様な世界人口に対するより堅牢で包括的なAI安全プラクティスを開発することができる。
- 参考スコア(独自算出の注目度): 21.6479207553511
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a comprehensive analysis of the linguistic diversity of LLM safety research, highlighting the English-centric nature of the field. Through a systematic review of nearly 300 publications from 2020--2024 across major NLP conferences and workshops at *ACL, we identify a significant and growing language gap in LLM safety research, with even high-resource non-English languages receiving minimal attention. We further observe that non-English languages are rarely studied as a standalone language and that English safety research exhibits poor language documentation practice. To motivate future research into multilingual safety, we make several recommendations based on our survey, and we then pose three concrete future directions on safety evaluation, training data generation, and crosslingual safety generalization. Based on our survey and proposed directions, the field can develop more robust, inclusive AI safety practices for diverse global populations.
- Abstract(参考訳): 本稿では、LLM安全研究の言語多様性を包括的に分析し、この分野の英語中心の性質を強調した。
2020年から2024年にかけての300近い出版物の体系的なレビューを通じて、主要なNLPカンファレンスやワークショップ、*ACLでのワークショップを通じて、LLMの安全性研究において、言語ギャップが著しく拡大していることを特定しました。
さらに、英語以外の言語が独立した言語として研究されることは滅多になく、英語の安全性研究が言語ドキュメントの実践の貧弱さを示していることを観察する。
今後の多言語安全研究のモチベーションとして,本調査に基づいていくつかの勧告を行い,安全性評価,トレーニングデータ生成,多言語安全一般化の3つの具体的な方向性を提示する。
我々の調査と提案された方向性に基づいて、この分野は、多様な世界人口に対するより堅牢で包括的なAI安全プラクティスを開発することができる。
関連論文リスト
- The Multilingual Divide and Its Impact on Global AI Safety [27.639490480528337]
本稿では、研究者、政策立案者、ガバナンスの専門家に対して、AIの"言語ギャップ"をブリッジする上での重要な課題の概要を提供する。
私たちは、AIの言語ギャップがなぜ存在して成長するのか、そして、グローバルAIの安全性における格差をどのように生み出すのかを分析します。
論文 参考訳(メタデータ) (2025-05-27T15:37:32Z) - MPO: Multilingual Safety Alignment via Reward Gap Optimization [88.76638442683391]
大規模言語モデル(LLM)は、世界中でAIアプリケーションの中心となっている。
RLHFやDPOのような既存の安全アライメントのための選好学習手法は、主に単言語であり、ノイズの多い多言語データと競合する。
本稿では,複数言語間の安全アライメントを改善するために,支配言語(英語)の安全能力の整合性を活用した新しいアプローチである多言語報酬gaP Optimization(MPO)を紹介する。
論文 参考訳(メタデータ) (2025-05-22T16:24:51Z) - LLMs Lost in Translation: M-ALERT uncovers Cross-Linguistic Safety Gaps [63.10843814055688]
M-ALERTは、英語、フランス語、ドイツ語、イタリア語、スペイン語の5言語で大言語モデルの安全性を評価するベンチマークである。
M-ALERTは、ALERTの詳細な分類に従って、言語ごとの高品質なプロンプトが15kあり、合計で75kである。
論文 参考訳(メタデータ) (2024-12-19T16:46:54Z) - Multilingual Blending: LLM Safety Alignment Evaluation with Language Mixture [6.17896401271963]
我々は,様々な大規模言語モデルの安全性アライメントを評価するために,混合言語クエリ応答方式であるMultilingual Blendingを導入する。
本稿では,多言語ブレンディングの有効性に影響を及ぼす可能性のある,言語可用性,形態学,言語ファミリーなどの言語パターンについて検討する。
論文 参考訳(メタデータ) (2024-07-10T03:26:15Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - All Languages Matter: On the Multilingual Safety of Large Language Models [96.47607891042523]
我々は、大規模言語モデル(LLM)のための最初の多言語安全ベンチマークを構築した。
XSafetyは、複数の言語ファミリーにまたがる10言語にわたる14種類の一般的な安全問題をカバーしている。
本稿では,ChatGPTの多言語安全性向上のための簡易かつ効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。