論文の概要: Beyond Weaponization: NLP Security for Medium and Lower-Resourced Languages in Their Own Right
- arxiv url: http://arxiv.org/abs/2507.03473v1
- Date: Fri, 04 Jul 2025 10:54:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.745114
- Title: Beyond Weaponization: NLP Security for Medium and Lower-Resourced Languages in Their Own Right
- Title(参考訳): ウィーポン化を超えて - 中級および低レベルの言語に対するNLPセキュリティ
- Authors: Heather Lent,
- Abstract要約: 本研究は,低級・中級言語におけるLMの安全性について検討する。
これらの言語に対する単言語および多言語LMの安全性を評価するため、最大70言語に対する既存の敵攻撃を拡張した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite mounting evidence that multilinguality can be easily weaponized against language models (LMs), works across NLP Security remain overwhelmingly English-centric. In terms of securing LMs, the NLP norm of "English first" collides with standard procedure in cybersecurity, whereby practitioners are expected to anticipate and prepare for worst-case outcomes. To mitigate worst-case outcomes in NLP Security, researchers must be willing to engage with the weakest links in LM security: lower-resourced languages. Accordingly, this work examines the security of LMs for lower- and medium-resourced languages. We extend existing adversarial attacks for up to 70 languages to evaluate the security of monolingual and multilingual LMs for these languages. Through our analysis, we find that monolingual models are often too small in total number of parameters to ensure sound security, and that while multilinguality is helpful, it does not always guarantee improved security either. Ultimately, these findings highlight important considerations for more secure deployment of LMs, for communities of lower-resourced languages.
- Abstract(参考訳): マルチリンガル性は言語モデル(LM)に対して容易に武器化できるという証拠が蓄積されているが、NLPセキュリティにおける作業は圧倒的に英語中心のままである。
LMの確保に関して、NLPの基準である「英語ファースト」は、サイバーセキュリティの標準的な手順と衝突し、実践者は最悪の結果に備えると予想される。
NLPセキュリティにおける最悪の結果を軽減するために、研究者はLMセキュリティの最も弱いリンク、すなわち低リソース言語に積極的に関与する必要がある。
そこで本研究では,低級言語と中級言語のLMの安全性について検討する。
これらの言語に対する単言語および多言語LMの安全性を評価するため、最大70言語に対する既存の敵攻撃を拡張した。
分析の結果,単言語モデルでは音の安全性を確保するためにパラメータの総数が小さすぎる場合が多く,多言語性は有用であるが,セキュリティの向上も必ずしも保証されないことがわかった。
最終的にこれらの発見は、低リソース言語のコミュニティにおいて、LMのよりセキュアなデプロイに関する重要な考慮点を浮き彫りにした。
関連論文リスト
- Evaluating LLMs Robustness in Less Resourced Languages with Proxy Models [0.0]
数文字だけを変更し、単語の重要度を計算するために小さなプロキシモデルを使用することで、驚くほど強力な攻撃が生まれることを示す。
これらの特徴と単語レベルの攻撃は、異なるLLMの予測を劇的に変えることが判明した。
我々は,低リソース言語ポーランド語に対する攻撃構築手法を検証し,LLMの潜在的な脆弱性を発見する。
論文 参考訳(メタデータ) (2025-06-09T11:09:39Z) - MrGuard: A Multilingual Reasoning Guardrail for Universal LLM Safety [56.79292318645454]
大規模言語モデル(LLM)は、ジェイルブレイクのような敵の攻撃を受けやすい。
この脆弱性は、多言語セーフティアライメントされたデータが制限される多言語設定で悪化する。
素早い分類のための多言語ガードレールを提案する。
論文 参考訳(メタデータ) (2025-04-21T17:15:06Z) - LLMs Lost in Translation: M-ALERT uncovers Cross-Linguistic Safety Inconsistencies [63.10843814055688]
M-ALERTは5つの言語における大規模言語モデルの安全性を評価するベンチマークである。
M-ALERTには言語毎に15kの高品質なプロンプトが含まれており、合計で75k、カテゴリワイドアノテーションがある。
39種類のLLMに関する実験は,言語固有の安全性解析の重要性を強調した。
論文 参考訳(メタデータ) (2024-12-19T16:46:54Z) - The Language Barrier: Dissecting Safety Challenges of LLMs in
Multilingual Contexts [46.089025223336854]
本稿では,多言語にわたる大規模言語モデルが直面する安全上の課題の多様性について検討する。
我々は、最先端のLLMが高レベルの言語と低レベルの言語で書かれた同じ悪意のあるプロンプトにどのように反応するかを比較する。
論文 参考訳(メタデータ) (2024-01-23T23:12:09Z) - Text Embedding Inversion Security for Multilingual Language Models [2.790855523145802]
研究は、基礎となるモデルに関する知識がなくても、埋め込みからテキストを再構築できることを示している。
本研究は,単言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語・多言語
論文 参考訳(メタデータ) (2024-01-22T18:34:42Z) - Low-Resource Languages Jailbreak GPT-4 [19.97929171158234]
我々の研究は、AIの安全性トレーニングと大規模言語モデル(LLM)のリピートという、言語横断的な脆弱性を明らかにします。
AdvBenchmarkでは、GPT-4は安全でない翻訳された入力に関わり、ユーザを有害な目標の79%に導く実行可能なアイテムを提供する。
他のハイ/ミッドリソース言語は攻撃成功率を著しく低くしているため、言語間の脆弱性は主に低リソース言語に適用される。
論文 参考訳(メタデータ) (2023-10-03T21:30:56Z) - All Languages Matter: On the Multilingual Safety of Large Language Models [96.47607891042523]
我々は、大規模言語モデル(LLM)のための最初の多言語安全ベンチマークを構築した。
XSafetyは、複数の言語ファミリーにまたがる10言語にわたる14種類の一般的な安全問題をカバーしている。
本稿では,ChatGPTの多言語安全性向上のための簡易かつ効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T05:23:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。