論文の概要: HearSay Benchmark: Do Audio LLMs Leak What They Hear?
- arxiv url: http://arxiv.org/abs/2601.03783v1
- Date: Wed, 07 Jan 2026 10:33:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 02:15:23.473488
- Title: HearSay Benchmark: Do Audio LLMs Leak What They Hear?
- Title(参考訳): HearSay Benchmark: オーディオ LLM がリークした音は?
- Authors: Jin Wang, Liang Lin, Kaiwen Luo, Weiliu Wang, Yitian Chen, Moayad Aloqaily, Xuehai Tang, Zhenhong Zhou, Kun Wang, Li Sun, Qingsong Wen,
- Abstract要約: 本稿では,オーディオ大言語モデルがアコースティック・ボイスプリントのみを通じて,ユーザのプライバシーを不注意に漏洩するかどうかを考察する。
$textitHearSay$は、22,000以上の現実世界のオーディオクリップから構築された総合的なベンチマークである。
textbfSignificant Privacy Leakage$の実験は、3つの重要な発見をもたらす。
- 参考スコア(独自算出の注目度): 71.05839007164776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Audio Large Language Models (ALLMs) have achieved remarkable progress in understanding and generation, their potential privacy implications remain largely unexplored. This paper takes the first step to investigate whether ALLMs inadvertently leak user privacy solely through acoustic voiceprints and introduces $\textit{HearSay}$, a comprehensive benchmark constructed from over 22,000 real-world audio clips. To ensure data quality, the benchmark is meticulously curated through a rigorous pipeline involving automated profiling and human verification, guaranteeing that all privacy labels are grounded in factual records. Extensive experiments on $\textit{HearSay}$ yield three critical findings: $\textbf{Significant Privacy Leakage}$: ALLMs inherently extract private attributes from voiceprints, reaching 92.89% accuracy on gender and effectively profiling social attributes. $\textbf{Insufficient Safety Mechanisms}$: Alarmingly, existing safeguards are severely inadequate; most models fail to refuse privacy-intruding requests, exhibiting near-zero refusal rates for physiological traits. $\textbf{Reasoning Amplifies Risk}$: Chain-of-Thought (CoT) reasoning exacerbates privacy risks in capable models by uncovering deeper acoustic correlations. These findings expose critical vulnerabilities in ALLMs, underscoring the urgent need for targeted privacy alignment. The codes and dataset are available at https://github.com/JinWang79/HearSay_Benchmark
- Abstract(参考訳): Audio Large Language Models (ALLMs) は理解と生成において顕著な進歩を遂げているが、その潜在的なプライバシーへの影響はほとんど調査されていない。
本論文は、ALLMsがアコースティック・ボイスプリントのみでユーザーのプライバシーを不注意に漏洩するかどうかを調査する最初のステップであり、22,000以上の現実世界のオーディオクリップから構築された総合的なベンチマークである$\textit{HearSay}$を紹介する。
データ品質を保証するため、ベンチマークは、自動プロファイリングと人間の検証を含む厳格なパイプラインを通じて慎重にキュレートされ、すべてのプライバシラベルが実際に記録されていることを保証する。
$\textbf{Significant Privacy Leakage}$: ALLMsは本質的に音声画像からプライベート属性を抽出し、性別の精度92.89%に達し、社会的属性を効果的にプロファイリングする。
$\textbf{Insufficient Safety Mechanisms}$: 既存の安全対策は極めて不十分だ。
関連スポンサーコンテンツ $\textbf{Reasoning Amplify Risk}$: Chain-of-Thought(CoT)推論は、より深い音響的相関を明らかにすることによって、有能なモデルのプライバシーリスクを悪化させる。
これらの発見は、ALLMの重大な脆弱性を明らかにし、ターゲットとするプライバシアライメントの緊急性の必要性を浮き彫りにした。
コードとデータセットはhttps://github.com/JinWang79/HearSay_Benchmarkで公開されている。
関連論文リスト
- PrivacyBench: A Conversational Benchmark for Evaluating Privacy in Personalized AI [8.799432439533211]
AIエージェントはユーザのデジタルフットプリントへのアクセスに依存しており、プライベートメールやチャット、購入履歴からの機密データを含むことが多い。
このアクセスは、基本的な社会的およびプライバシーリスクを生み出します。
埋め込みシークレットを含む社会的基盤データセットを備えたベンチマークであるPrivacyBenchを紹介する。
論文 参考訳(メタデータ) (2025-12-31T13:16:45Z) - High-Dimensional Asymptotics of Differentially Private PCA [4.168157981135696]
差分プライバシーでは、機密データセットの統計はランダムノイズを導入することで民営化される。
このような高い騒音レベルが本当に必要か、あるいは証明技術に限界があるのかは、まだ不明である。
本稿では,ターゲットのプライバシレベルを達成するために必要な最小のノイズレベルを識別する,シャープなプライバシ特性を得ることができるかを検討する。
論文 参考訳(メタデータ) (2025-11-10T16:17:16Z) - Privacy-Aware Decoding: Mitigating Privacy Leakage of Large Language Models in Retrieval-Augmented Generation [26.573578326262307]
プライバシ・アウェア・デコーディング(英: Privacy-Aware Decoding、PAD)は、ガウス雑音を発生時にトークンロジットに適応的に注入する軽量な推論時防御法である。
PADは信頼性ベースのスクリーニングを統合して、リスクの高いトークンを選択的に保護し、不要なノイズを最小限に抑える効率的な感度推定と、プライバシと生成品質のバランスをとるためのコンテキスト対応ノイズ校正を行う。
我々の研究は、機密ドメインにおける普遍的でスケーラブルなプライバシソリューションを実現するために、デコード戦略を通じて、RAGのプライバシリスクを軽減するための重要な一歩を踏み出しています。
論文 参考訳(メタデータ) (2025-08-05T05:22:13Z) - DP-Fusion: Token-Level Differentially Private Inference for Large Language Models [51.71591819896191]
大規模言語モデル(LLM)は、推論時にプライバシを保存しない。
DP-Fusion は LLM の出力にコンテキスト内のトークンの集合が持つ影響を証明的に束縛する。
提案手法は, 理論的および実証的プライバシを大幅に改善した, 証明可能な民営化文書を作成する。
論文 参考訳(メタデータ) (2025-07-06T20:49:39Z) - InvisibleInk: High-Utility and Low-Cost Text Generation with Differential Privacy [7.006059299522521]
InvisibleInkは、厳格な差分プライバシー保証を満たすスケーラブルな長文生成フレームワークである。
モデルログ内の機密情報のみを分離・切断することで、プライバシコストを削減する。
我々は、トップ$kのプライベートトークンの小さなスーパーセットからサンプリングすることで、テキストの品質を向上させる。
論文 参考訳(メタデータ) (2025-06-30T18:00:41Z) - Privacy-Preserving Retrieval-Augmented Generation with Differential Privacy [25.896416088293908]
検索強化世代(RAG)は大規模言語モデル(LLM)を支援するのに特に有効である
RAGは、外部データソースから機密情報を漏洩するリスクを出力する。
機密情報を必要とするトークンに対してのみ、プライバシー予算を賢く費やすアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-06T01:20:16Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Adaptive Privacy Composition for Accuracy-first Mechanisms [55.53725113597539]
ノイズ低減機構はますます正確な答えを生み出す。
アナリストは、公表された最も騒々しい、あるいは最も正確な回答のプライバシー費用のみを支払う。
ポスト前のプライベートメカニズムがどのように構成されるかは、まだ研究されていない。
我々は、分析者が微分プライベートとポストプライベートのメカニズムを適応的に切り替えることのできるプライバシーフィルタを開発した。
論文 参考訳(メタデータ) (2023-06-24T00:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。