論文の概要: Investigating Safety Vulnerabilities of Large Audio-Language Models Under Speaker Emotional Variations
- arxiv url: http://arxiv.org/abs/2510.16893v1
- Date: Sun, 19 Oct 2025 15:41:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.196861
- Title: Investigating Safety Vulnerabilities of Large Audio-Language Models Under Speaker Emotional Variations
- Title(参考訳): 話者感情変動下における大規模音声言語モデルの安全性脆弱性の検討
- Authors: Bo-Han Feng, Chien-Feng Liu, Yu-Hsuan Li Liang, Chih-Kai Yang, Szu-Wei Fu, Zhehuai Chen, Ke-Han Lu, Sung-Feng Huang, Chao-Han Huck Yang, Yu-Chiang Frank Wang, Yun-Nung Chen, Hung-yi Lee,
- Abstract要約: この研究は、話者の感情の役割を体系的に調査する。
複数の感情や強度にまたがって表現される悪意のある音声命令のデータセットを構築し、いくつかの最先端のLALMを評価する。
異なる感情は、様々なレベルの安全でない反応を誘発し、強度の影響は非単調であり、中性表現は最大のリスクを伴うことが多い。
- 参考スコア(独自算出の注目度): 94.62792643569567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large audio-language models (LALMs) extend text-based LLMs with auditory understanding, offering new opportunities for multimodal applications. While their perception, reasoning, and task performance have been widely studied, their safety alignment under paralinguistic variation remains underexplored. This work systematically investigates the role of speaker emotion. We construct a dataset of malicious speech instructions expressed across multiple emotions and intensities, and evaluate several state-of-the-art LALMs. Our results reveal substantial safety inconsistencies: different emotions elicit varying levels of unsafe responses, and the effect of intensity is non-monotonic, with medium expressions often posing the greatest risk. These findings highlight an overlooked vulnerability in LALMs and call for alignment strategies explicitly designed to ensure robustness under emotional variation, a prerequisite for trustworthy deployment in real-world settings.
- Abstract(参考訳): 大規模オーディオ言語モデル(LALM)は、テキストベースのLLMを拡張して聴覚的理解を提供し、マルチモーダルアプリケーションに新たな機会を提供する。
彼らの知覚、推論、タスクパフォーマンスは広く研究されているが、パラ言語的変動下での安全性の整合性は未解明のままである。
この研究は、話者の感情の役割を体系的に調査する。
複数の感情や強度にまたがって表現される悪意のある音声命令のデータセットを構築し、いくつかの最先端のLALMを評価する。
異なる感情は、様々なレベルの安全でない反応を誘発し、強度の影響は非単調であり、中性表現は最大のリスクを伴うことが多い。
これらの知見は、LALMの見過ごされた脆弱性と、感情的な変動の下で堅牢性を確保するために明示的に設計されたアライメント戦略、これは、現実世界の環境での信頼性の高いデプロイメントの前提条件である。
関連論文リスト
- SARSteer: Safeguarding Large Audio Language Models via Safe-Ablated Refusal Steering [22.462892823842115]
音声入力は、テキストよりも有害な応答を容易に引き出すことができる。
LALMの最初の推論時防衛フレームワークである Safe-Ablated Refusal Steering (SARSteer) を提案する。
論文 参考訳(メタデータ) (2025-10-20T15:14:25Z) - Benchmarking Gaslighting Attacks Against Speech Large Language Models [31.842578503471586]
我々は、ガスライティング攻撃、戦略的に構築されたプロンプトを導入し、モデル推論を誤解させたり、覆ったり、歪んだりする。
具体的には、Anger、Cognitive Disruption、Sarcasm、Implicit、Professional Negationの5つの操作戦略を構築します。
我々のフレームワークは、無言の謝罪や拒絶など、パフォーマンス劣化と行動応答の両方を捉えています。
論文 参考訳(メタデータ) (2025-09-24T07:57:10Z) - Steering Multimodal Large Language Models Decoding for Context-Aware Safety [40.668741064553025]
MLLM(Multimodal Large Language Models)は、現実世界のアプリケーションに実装されている。
既存の手法では過敏性(良性クエリの不正な拒絶)と過敏性(視覚的根拠のあるリスクの欠如)のバランスが取れない。
マルチモーダルコンテキストに基づいてトークン生成を動的に調整する軽量かつモデルに依存しないデコーディングフレームワークであるSafeCoDeを紹介する。
論文 参考訳(メタデータ) (2025-09-23T16:32:25Z) - ROSE: Toward Reality-Oriented Safety Evaluation of Large Language Models [60.28667314609623]
大規模言語モデル(LLM)は、現実世界のアプリケーションにおいてブラックボックスコンポーネントとしてますます多くデプロイされている。
我々は,多目的強化学習を用いて敵のLDMを微調整する新しいフレームワークであるReal-Oriented Safety Evaluation (ROSE)を提案する。
論文 参考訳(メタデータ) (2025-06-17T10:55:17Z) - Survey of Adversarial Robustness in Multimodal Large Language Models [17.926240920647892]
MLLM(Multimodal Large Language Models)は、人工知能において例外的な性能を示す。
現実世界のアプリケーションへのデプロイは、敵の脆弱性に対する重大な懸念を引き起こす。
本稿では,MLLMの対角的ロバスト性について述べる。
論文 参考訳(メタデータ) (2025-03-18T06:54:59Z) - Don't Get Too Excited -- Eliciting Emotions in LLMs [1.8399318639816038]
本稿では,大規模言語モデル(LLM)における影響制御の課題について考察する。
我々は,その感情表現範囲を評価するために,最先端のオープンウェイトLLMを評価した。
モデルの能力を定量化し、幅広い感情のスペクトルを表現し、相互作用の間どのように変動するかを定量化する。
論文 参考訳(メタデータ) (2025-03-04T10:06:41Z) - Multimodal Situational Safety [73.63981779844916]
マルチモーダル・シチュエーション・セーフティ(Multimodal situational Safety)と呼ばれる新しい安全課題の評価と分析を行う。
MLLMが言語やアクションを通じても安全に応答するためには、言語クエリが対応する視覚的コンテキスト内での安全性への影響を評価する必要があることが多い。
我々は,現在のMLLMの状況安全性能を評価するためのマルチモーダル状況安全ベンチマーク(MSSBench)を開発した。
論文 参考訳(メタデータ) (2024-10-08T16:16:07Z) - MOSSBench: Is Your Multimodal Language Model Oversensitive to Safe Queries? [70.77691645678804]
人間は認知の歪みに傾向があり、特定の刺激に対する過大な反応を引き起こす偏見のある思考パターンがある。
本稿では,高度マルチモーダル言語モデル (MLLM) が同様の傾向を示すことを示す。
既存のMLLMの過敏性を引き起こす3種類の刺激を同定する。
論文 参考訳(メタデータ) (2024-06-22T23:26:07Z) - Unique Security and Privacy Threats of Large Language Models: A Comprehensive Survey [63.4581186135101]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げた。
プライバシーとセキュリティの問題は、そのライフサイクルを通じて明らかになっている。
この調査は、潜在的な対策の概要と分析である。
論文 参考訳(メタデータ) (2024-06-12T07:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。