論文の概要: Text Embedding Inversion Attacks on Multilingual Language Models
- arxiv url: http://arxiv.org/abs/2401.12192v1
- Date: Mon, 22 Jan 2024 18:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 12:46:36.996823
- Title: Text Embedding Inversion Attacks on Multilingual Language Models
- Title(参考訳): 多言語モデルに対するテキスト埋め込みインバージョン攻撃
- Authors: Yiyi Chen and Heather Lent and Johannes Bjerva
- Abstract要約: テキスト情報を実数埋め込みとして表現することが標準となっている。
大規模言語モデル(LLMs)に対する大衆の関心が高まり、Embedddings as a Service(サービスとしての埋め込み)は、ビジネスモデルとして急速に勢いを増している。
センシティブなデータを埋め込みから再構築できるため、これは優れたセキュリティリスクを伴わない。
- 参考スコア(独自算出の注目度): 3.1366419227913123
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Representing textual information as real-numbered embeddings has become the
norm in NLP. Moreover, with the rise of public interest in large language
models (LLMs), Embeddings as a Service (EaaS) has rapidly gained traction as a
business model. This is not without outstanding security risks, as previous
research has demonstrated that sensitive data can be reconstructed from
embeddings, even without knowledge of the underlying model that generated them.
However, such work is limited by its sole focus on English, leaving all other
languages vulnerable to attacks by malicious actors. %As many international and
multilingual companies leverage EaaS, there is an urgent need for research into
multilingual LLM security. To this end, this work investigates LLM security
from the perspective of multilingual embedding inversion. Concretely, we define
the problem of black-box multilingual and cross-lingual inversion attacks, with
special attention to a cross-domain scenario. Our findings reveal that
multilingual models are potentially more vulnerable to inversion attacks than
their monolingual counterparts. This stems from the reduced data requirements
for achieving comparable inversion performance in settings where the underlying
language is not known a-priori. To our knowledge, this work is the first to
delve into multilinguality within the context of inversion attacks, and our
findings highlight the need for further investigation and enhanced defenses in
the area of NLP Security.
- Abstract(参考訳): テキスト情報を実数埋め込みとして表現することは、NLPの標準となっている。
さらに、大きな言語モデル(LLM)に対する一般の関心が高まり、Embedddings as a Service(EaaS)は、ビジネスモデルとして急速に注目を集めています。
先程の研究で、センシティブなデータを埋め込みから再構築できることが実証されたため、これは明らかなセキュリティ上のリスクを伴わない。
しかし、そのような作品は英語のみに焦点が当てられているため、悪意あるアクターによる攻撃に弱い言語を残している。
%) 国際・多言語企業は EaaS を活用しているため,多言語 LLM セキュリティの研究が急務である。
そこで本研究では,多言語組込みインバージョンの観点からllmセキュリティについて検討する。
具体的には,ブラックボックス・マルチランガル・クロスランガル・インバージョン・アタックの問題を定義し,特にクロスドメイン・シナリオに注目した。
その結果,多言語モデルの方がモノリンガルモデルよりも逆攻撃に弱い可能性が示唆された。
これは、基盤言語がa-prioriを知らない設定で同等の逆パフォーマンスを達成するためのデータ要件の削減に起因する。
我々の知る限り、この研究はインバージョンアタックの文脈における多言語性を探究する最初の試みであり、我々はNLPセキュリティの領域におけるさらなる調査と防御強化の必要性を強調している。
関連論文リスト
- Transferring Troubles: Cross-Lingual Transferability of Backdoor Attacks in LLMs with Instruction Tuning [63.481446315733145]
本研究は多言語モデルに対する言語間バックドア攻撃に焦点を当てている。
本研究では,教育指導データが有毒でない言語において,教育指導データが1つか2つの言語でどのように影響するかを検討する。
本手法は, mT5, BLOOM, GPT-3.5-turbo などのモデルにおいて, 高い攻撃成功率を示し, 複数の言語で95%を突破した。
論文 参考訳(メタデータ) (2024-04-30T14:43:57Z) - Sandwich attack: Multi-language Mixture Adaptive Attack on LLMs [9.254047358707014]
我々はemphSandwich攻撃と呼ばれる新しいブラックボックス攻撃ベクトル、多言語混合攻撃を導入する。
GoogleのBard, Gemini Pro, LLaMA-2-70-B-Chat, GPT-3.5-Turbo, GPT-4, Claude-3-OPUS の5つの異なるモデルを用いた実験により, この攻撃ベクトルは敵が有害な応答を生成するために使用できることを示した。
論文 参考訳(メタデータ) (2024-04-09T18:29:42Z) - Backdoor Attack on Multilingual Machine Translation [53.28390057407576]
マルチリンガル機械翻訳(MNMT)システムにはセキュリティ脆弱性がある。
攻撃者は、他の言語で悪意のある翻訳を引き起こすために、有害なデータを低リソースの言語ペアに注入する。
この種の攻撃は、低リソース設定に固有の言語の攻撃面が大きいことを考えると、特に懸念される。
論文 参考訳(メタデータ) (2024-04-03T01:32:31Z) - How do Large Language Models Handle Multilingualism? [87.06210331315451]
大規模言語モデル(LLM)は、様々な言語で顕著な性能を示す。
LLMの多言語入力処理を記述したフレームワークを提案する。
さらに,特定の言語処理における言語特異的ニューロンの存在について検討する。
論文 参考訳(メタデータ) (2024-02-29T02:55:26Z) - A Cross-Language Investigation into Jailbreak Attacks in Large Language
Models [14.226415550366504]
特に未発見の領域は多言語ジェイルブレイク攻撃である。
この特定の脅威に対処する総合的な実証研究が欠如している。
本研究は多言語ジェイルブレイク攻撃の理解と緩和に関する貴重な知見を提供する。
論文 参考訳(メタデータ) (2024-01-30T06:04:04Z) - Multilingual Jailbreak Challenges in Large Language Models [96.74878032417054]
本研究では,大規模言語モデル(LLM)における多言語ジェイルブレイク問題の存在を明らかにする。
我々は、意図しないシナリオと意図的なシナリオの2つを考えます。
安全な微調整のための多言語学習データを自動的に生成する新しいtextscSelf-Defense フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-10T09:44:06Z) - Low-Resource Languages Jailbreak GPT-4 [19.97929171158234]
我々の研究は、AIの安全性トレーニングと大規模言語モデル(LLM)のリピートという、言語横断的な脆弱性を明らかにします。
AdvBenchmarkでは、GPT-4は安全でない翻訳された入力に関わり、ユーザを有害な目標の79%に導く実行可能なアイテムを提供する。
他のハイ/ミッドリソース言語は攻撃成功率を著しく低くしているため、言語間の脆弱性は主に低リソース言語に適用される。
論文 参考訳(メタデータ) (2023-10-03T21:30:56Z) - All Languages Matter: On the Multilingual Safety of Large Language
Models [101.31394141244294]
我々は、大規模言語モデル(LLM)のための最初の多言語安全ベンチマークを構築した。
XSafetyは、複数の言語ファミリーにまたがる10言語にわたる14種類の一般的な安全問題をカバーしている。
本稿では,ChatGPTの多言語安全性向上のための簡易かつ効果的なプロンプト手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T05:23:34Z) - Cross-lingual Machine Reading Comprehension with Language Branch
Knowledge Distillation [105.41167108465085]
言語間機械読解(CLMRC)は、ローソース言語に大規模なデータセットがないため、依然として難しい問題である。
本稿では,Language Branch Machine Reading (LBMRC) という新しい拡張手法を提案する。
LBMRCは、個々の言語に精通したMultiple Machine Read comprehension (MRC)モデルを訓練する。
複数の言語分岐モデルから全ての対象言語に対する単一モデルへのアマルガメート知識の多言語蒸留アプローチを考案する。
論文 参考訳(メタデータ) (2020-10-27T13:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。