論文の概要: Special-Character Adversarial Attacks on Open-Source Language Model
- arxiv url: http://arxiv.org/abs/2508.14070v1
- Date: Tue, 12 Aug 2025 03:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.151672
- Title: Special-Character Adversarial Attacks on Open-Source Language Model
- Title(参考訳): オープンソース言語モデルにおける特殊要因対応攻撃
- Authors: Ephraiem Sarabamoun,
- Abstract要約: 大規模言語モデル(LLM)は、様々な自然言語処理タスクで顕著なパフォーマンスを実現している。
キャラクタレベルの敵操作は、現実世界のデプロイメントにおいて重大なセキュリティ上の課題を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have achieved remarkable performance across diverse natural language processing tasks, yet their vulnerability to character-level adversarial manipulations presents significant security challenges for real-world deployments.
- Abstract(参考訳): 大きな言語モデル(LLM)は、さまざまな自然言語処理タスクで顕著なパフォーマンスを達成したが、文字レベルの敵操作に対する脆弱性は、現実世界のデプロイメントにおいて重大なセキュリティ上の課題を呈している。
関連論文リスト
- Design Patterns for Securing LLM Agents against Prompt Injections [26.519964636138585]
インジェクション攻撃は 自然言語入力に対する エージェントの弾力性を利用してる
本稿では,AIエージェントのインジェクションに対する抵抗性を証明可能な設計パターンのセットを提案する。
論文 参考訳(メタデータ) (2025-06-10T14:23:55Z) - Adversarial Attack Classification and Robustness Testing for Large Language Models for Code [19.47426054151291]
本研究では,自然言語入力における逆方向の摂動がLarge Language Models for Code(LLM4Code)に与える影響について検討する。
文字、単語、文レベルにおける摂動の影響を調べ、最も影響の大きい脆弱性を特定する。
論文 参考訳(メタデータ) (2025-06-09T17:02:29Z) - Language Matters: How Do Multilingual Input and Reasoning Paths Affect Large Reasoning Models? [59.970391602080205]
多言語トレーニングにも拘わらず、LRMはテスト時に高リソース言語での推論をデフォルトとする傾向にある。
文化的推論は、推論タスクのパフォーマンスを低下させるが、文化的なタスクに恩恵を与える一方、安全性評価は言語固有の振る舞いを示す。
論文 参考訳(メタデータ) (2025-05-23T02:46:18Z) - SMILE: Speech Meta In-Context Learning for Low-Resource Language Automatic Speech Recognition [55.2480439325792]
音声メタインコンテキスト学習(SMILE)は、メタラーニングと音声インコンテキスト学習(SICL)を組み合わせた革新的なフレームワークである
SMILEは、トレーニング不要な多言語ASRタスクにおいて、ベースライン手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2024-09-16T16:04:16Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - Multilingual Jailbreak Challenges in Large Language Models [96.74878032417054]
本研究では,大規模言語モデル(LLM)における多言語ジェイルブレイク問題の存在を明らかにする。
我々は、意図しないシナリオと意図的なシナリオの2つを考えます。
安全な微調整のための多言語学習データを自動的に生成する新しいtextscSelf-Defense フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-10T09:44:06Z) - The Cybersecurity Crisis of Artificial Intelligence: Unrestrained
Adoption and Natural Language-Based Attacks [0.0]
自己回帰言語モデル(AR-LLM)の広範な統合により、ユニークな拡張性を持つ重要な脆弱性が導入されている。
このコメンタリーでは、これらの脆弱性、攻撃のベクターとしての自然言語への依存、サイバーセキュリティのベストプラクティスへの挑戦を分析します。
論文 参考訳(メタデータ) (2023-09-25T10:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。