論文の概要: The Multilingual Divide and Its Impact on Global AI Safety
- arxiv url: http://arxiv.org/abs/2505.21344v1
- Date: Tue, 27 May 2025 15:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.766761
- Title: The Multilingual Divide and Its Impact on Global AI Safety
- Title(参考訳): マルチリンガルディバイドとグローバルAIの安全性への影響
- Authors: Aidan Peppin, Julia Kreutzer, Alice Schoenauer Sebag, Kelly Marchisio, Beyza Ermis, John Dang, Samuel Cahyawijaya, Shivalika Singh, Seraphina Goldfarb-Tarrant, Viraat Aryabumi, Aakanksha, Wei-Yin Ko, Ahmet Üstün, Matthias Gallé, Marzieh Fadaee, Sara Hooker,
- Abstract要約: 本稿では、研究者、政策立案者、ガバナンスの専門家に対して、AIの"言語ギャップ"をブリッジする上での重要な課題の概要を提供する。
私たちは、AIの言語ギャップがなぜ存在して成長するのか、そして、グローバルAIの安全性における格差をどのように生み出すのかを分析します。
- 参考スコア(独自算出の注目度): 27.639490480528337
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite advances in large language model capabilities in recent years, a large gap remains in their capabilities and safety performance for many languages beyond a relatively small handful of globally dominant languages. This paper provides researchers, policymakers and governance experts with an overview of key challenges to bridging the "language gap" in AI and minimizing safety risks across languages. We provide an analysis of why the language gap in AI exists and grows, and how it creates disparities in global AI safety. We identify barriers to address these challenges, and recommend how those working in policy and governance can help address safety concerns associated with the language gap by supporting multilingual dataset creation, transparency, and research.
- Abstract(参考訳): 近年の大規模言語モデル能力の進歩にもかかわらず、その能力と安全性には、比較的少数のグローバルな支配的な言語を超えて大きなギャップが残っている。
本稿では、研究者、政策立案者、ガバナンスの専門家に対して、AIにおける"言語ギャップ"をブリッジし、言語間の安全性リスクを最小化するための重要な課題の概要を提供する。
私たちは、AIの言語ギャップがなぜ存在して成長するのか、そして、グローバルAIの安全性における格差をどのように生み出すのかを分析します。
これらの課題に対処するための障壁を特定し、多言語データセットの作成、透明性、研究をサポートすることによって、言語ギャップに関連する安全上の問題に対処する上で、ポリシとガバナンスで働く人たちがどのように役立つかを推奨します。
関連論文リスト
- Beyond Weaponization: NLP Security for Medium and Lower-Resourced Languages in Their Own Right [0.0]
本研究は,低級・中級言語におけるLMの安全性について検討する。
これらの言語に対する単言語および多言語LMの安全性を評価するため、最大70言語に対する既存の敵攻撃を拡張した。
論文 参考訳(メタデータ) (2025-07-04T10:54:04Z) - The State of Multilingual LLM Safety Research: From Measuring the Language Gap to Mitigating It [21.6479207553511]
私たちは、2020年から2024年にかけての300近い出版物を、主要なNLPカンファレンスや*ACLのワークショップでレビューします。
英語以外の言語が独立した言語として研究されることはめったになく、英語の安全研究が言語ドキュメントの実践に乏しいことを観察する。
我々の調査と提案された方向性に基づいて、この分野は、多様な世界人口に対するより堅牢で包括的なAI安全プラクティスを開発することができる。
論文 参考訳(メタデータ) (2025-05-30T01:32:44Z) - MPO: Multilingual Safety Alignment via Reward Gap Optimization [88.76638442683391]
大規模言語モデル(LLM)は、世界中でAIアプリケーションの中心となっている。
RLHFやDPOのような既存の安全アライメントのための選好学習手法は、主に単言語であり、ノイズの多い多言語データと競合する。
本稿では,複数言語間の安全アライメントを改善するために,支配言語(英語)の安全能力の整合性を活用した新しいアプローチである多言語報酬gaP Optimization(MPO)を紹介する。
論文 参考訳(メタデータ) (2025-05-22T16:24:51Z) - MrGuard: A Multilingual Reasoning Guardrail for Universal LLM Safety [56.79292318645454]
大規模言語モデル(LLM)は、ジェイルブレイクのような敵の攻撃を受けやすい。
この脆弱性は、多言語セーフティアライメントされたデータが制限される多言語設定で悪化する。
素早い分類のための多言語ガードレールを提案する。
論文 参考訳(メタデータ) (2025-04-21T17:15:06Z) - Uncovering inequalities in new knowledge learning by large language models across different languages [66.687369838071]
低リソース言語は、4つの次元すべてで一貫して不利に直面していることを示す。
我々は,LLMの新たな知識学習における言語的不平等の認識を高め,より包括的で公平な将来のLLMの開発を促進することを目的としている。
論文 参考訳(メタデータ) (2025-03-06T03:41:47Z) - Generative AI and Large Language Models in Language Preservation: Opportunities and Challenges [0.0]
Generative AI(GenAI)とLarge Language Models(LLM)は、コーパス生成、転写、翻訳、学習を自動化する新たなフロンティアをアンロックする。
本稿では、言語固有のニーズに対してGenAIアプリケーションを体系的に評価する新しい分析フレームワークを提案する。
コミュニティ主導の音声認識などの成功例を92%の精度で再現するTe Reo M=aori再活性化による有効性を示す。
我々の知見は、GenAIが言語保存に革命をもたらすことは確かだが、介入がコミュニティ中心のデータスチュワードシップ、継続的な評価、透明なリスク管理に厳格に固定されている場合に限られる。
論文 参考訳(メタデータ) (2025-01-20T14:03:40Z) - A Capabilities Approach to Studying Bias and Harm in Language Technologies [4.135516576952934]
我々は、能力アプローチのレンズを通して、言語技術への公平さ、偏見、包摂性を考察する。
能力のアプローチは、人々が達成できるものに集中し、社会的、政治的、経済的文脈を考慮に入れている。
本稿では,機能アプローチ,多言語・多文化的評価との関係,言語技術の有害性の定義と評価において,コミュニティメンバと有意義な協力を得られるか,について詳述する。
論文 参考訳(メタデータ) (2024-11-06T22:46:13Z) - Towards Safe Multilingual Frontier AI [0.18957478338649109]
マルチリンガルジェイルブレイクは、AIシステムの安全かつ包括的デプロイを損なう。
我々は、多言語ジェイルブレイクに対応するため、EUの法的な状況と制度的な枠組みに沿った政策行動を提案する。
これには、多言語能力と脆弱性の必須評価、世論調査、多言語AI開発のための状態サポートが含まれる。
論文 参考訳(メタデータ) (2024-09-06T14:26:18Z) - Safe Multi-agent Reinforcement Learning with Natural Language Constraints [49.01100552946231]
安全なマルチエージェント強化学習(MARL)における自然言語制約の役割は重要であるが、しばしば見過ごされる。
自然言語制約付き安全マルチエージェント強化学習(SMALL)という新しいアプローチを提案する。
提案手法は、微調整言語モデルを用いて、自由形式のテキスト制約を解釈し、処理し、セマンティックな埋め込みに変換する。
これらの埋め込みはマルチエージェントのポリシー学習プロセスに統合され、エージェントは報酬を最適化しながら制約違反を最小限に抑えるポリシーを学ぶことができる。
論文 参考訳(メタデータ) (2024-05-30T12:57:35Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Text Embedding Inversion Security for Multilingual Language Models [2.790855523145802]
研究は、基礎となるモデルに関する知識がなくても、埋め込みからテキストを再構築できることを示している。
本研究は,単言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語
論文 参考訳(メタデータ) (2024-01-22T18:34:42Z) - All Languages Matter: On the Multilingual Safety of Large Language Models [96.47607891042523]
我々は、大規模言語モデル(LLM)のための最初の多言語安全ベンチマークを構築した。
XSafetyは、複数の言語ファミリーにまたがる10言語にわたる14種類の一般的な安全問題をカバーしている。
本稿では,ChatGPTの多言語安全性向上のための簡易かつ効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。