論文の概要: Metamorphic Testing for Audio Content Moderation Software
- arxiv url: http://arxiv.org/abs/2509.24215v1
- Date: Mon, 29 Sep 2025 02:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.705921
- Title: Metamorphic Testing for Audio Content Moderation Software
- Title(参考訳): オーディオコンテンツモデレーションソフトのメタモルフィックテスト
- Authors: Wenxuan Wang, Yongjiang Wu, Junyuan Zhang, Shuqing Li, Yun Peng, Wenting Chen, Shuai Wang, Michael R. Lyu,
- Abstract要約: 本稿では,音声コンテンツモデレーションソフトウェアのためのメタモルフィックテスティングフレームワークMTAMを提案する。
本研究は2000の音声クリップのパイロット実験を行い,2つの摂動カテゴリ(音声特徴ベースとヒューリスティック摂動)にまたがる14の変成関係を定義した。
MTAMは、これらのメタモルフィックな関係を有毒なオーディオコンテンツに適用し、検出を回避しつつ有害なケースを発生させる。
- 参考スコア(独自算出の注目度): 41.620212717784135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid growth of audio-centric platforms and applications such as WhatsApp and Twitter has transformed the way people communicate and share audio content in modern society. However, these platforms are increasingly misused to disseminate harmful audio content, such as hate speech, deceptive advertisements, and explicit material, which can have significant negative consequences (e.g., detrimental effects on mental health). In response, researchers and practitioners have been actively developing and deploying audio content moderation tools to tackle this issue. Despite these efforts, malicious actors can bypass moderation systems by making subtle alterations to audio content, such as modifying pitch or inserting noise. Moreover, the effectiveness of modern audio moderation tools against such adversarial inputs remains insufficiently studied. To address these challenges, we propose MTAM, a Metamorphic Testing framework for Audio content Moderation software. Specifically, we conduct a pilot study on 2000 audio clips and define 14 metamorphic relations across two perturbation categories: Audio Features-Based and Heuristic perturbations. MTAM applies these metamorphic relations to toxic audio content to generate test cases that remain harmful while being more likely to evade detection. In our evaluation, we employ MTAM to test five commercial textual content moderation software and an academic model against three kinds of toxic content. The results show that MTAM achieves up to 38.6%, 18.3%, 35.1%, 16.7%, and 51.1% error finding rates (EFR) when testing commercial moderation software provided by Gladia, Assembly AI, Baidu, Nextdata, and Tencent, respectively, and it obtains up to 45.7% EFR when testing the state-of-the-art algorithms from the academy.
- Abstract(参考訳): WhatsAppやTwitterのようなオーディオ中心のプラットフォームやアプリケーションの急速な成長は、人々が現代社会でオーディオコンテンツをコミュニケーションし共有する方法を変えてきた。
しかし、これらのプラットフォームは、ヘイトスピーチ、偽りの広告、明示的な材料などの有害な音声コンテンツを拡散するために、ますます誤用されてきている(例えば、精神的健康に対する有害な影響)。
これに対し、研究者や実践者は、この問題に対処するためのオーディオコンテンツモデレーションツールを積極的に開発、展開してきた。
これらの努力にもかかわらず、悪意のあるアクターは、ピッチの変更やノイズ挿入といったオーディオコンテンツに微妙な変更を加えることで、モデレーションシステムを回避することができる。
さらに、このような逆入力に対する現代の音声モデレーションツールの有効性については、まだ十分に研究されていない。
これらの課題に対処するため,音声コンテンツモデレーションソフトウェアのためのメタモルフィックテスティングフレームワークMTAMを提案する。
具体的には,2000の音声クリップのパイロット研究を行い,2つの摂動カテゴリ(音声特徴ベースとヒューリスティック摂動)にまたがる14の変成関係を定義した。
MTAMは、これらのメタモルフィックな関係を有毒なオーディオコンテンツに適用し、検出を回避しつつ有害なケースを発生させる。
本評価では,MTAMを用いて,有毒な3種類のコンテンツに対して,商業用テキスト・モデレーション・ソフトウェア5つと学術用モデル1つを試験する。
MTAMは、Gladia、Ambly AI、Baidu、Nextdata、Tencentが提供する商用モデレーションソフトウェアをテストする際に、最大38.6%、18.3%、35.1%、16.7%、51.1%のエラー発見率(EFR)を達成し、アカデミーの最先端アルゴリズムをテストする際に最大45.7%のEFRを得る。
関連論文リスト
- AHELM: A Holistic Evaluation of Audio-Language Models [78.20477815156484]
マルチモーダルオーディオ言語モデル(ALM)は、インターリーブされた音声とテキストを入力および出力テキストとして取り込む。
AHELMは、PARADEとCoRe-Benchと呼ばれる2つの新しい合成オーディオテキストデータセットを含む、さまざまなデータセットを集約するベンチマークである。
また、モデル間の等価比較を確保するために、プロンプト、推論パラメータ、評価指標を標準化する。
論文 参考訳(メタデータ) (2025-08-29T07:40:39Z) - Audio Is the Achilles' Heel: Red Teaming Audio Large Multimodal Models [50.89022445197919]
我々は、オープンソースのオーディオLMMが有害な音声質問に対して平均69.14%の攻撃成功率を被っていることを示す。
Gemini-1.5-Proの音声固有のジェイルブレイクは、有害なクエリベンチマークで70.67%の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-10-31T12:11:17Z) - AdVerb: Visually Guided Audio Dereverberation [49.958724234969445]
本稿では,新しいオーディオ・ビジュアル・デバーベレーション・フレームワークであるAdVerbを紹介する。
残響音に加えて視覚的手がかりを用いてクリーンオーディオを推定する。
論文 参考訳(メタデータ) (2023-08-23T18:20:59Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - Validating Multimedia Content Moderation Software via Semantic Fusion [16.322773343799575]
本稿では,マルチメディアコンテンツモデレーションソフトウェアの検証方法として,セマンティックフュージョンを紹介する。
5種類の商用コンテンツモデレーションソフトウェアと2種類の最先端モデルを3種類の有毒コンテンツに対してテストするためにDUOを使用している。
その結果,モード化ソフトウェアのテストでは,最大100%エラー検出率(EFR)が達成されることがわかった。
論文 参考訳(メタデータ) (2023-05-23T02:44:15Z) - MTTM: Metamorphic Testing for Textual Content Moderation Software [11.759353169546646]
ソーシャルメディアプラットフォームは、有害なコンテンツを広めるためにますます利用されてきた。
悪意のあるユーザは、有害なコンテンツの中で数単語だけを変更することで、モデレーションを回避することができる。
テキストコンテンツモデレーションソフトウェアのためのメタモルフィックテスティングフレームワークMTTMを提案する。
論文 参考訳(メタデータ) (2023-02-11T14:44:39Z) - Multilingual and Multimodal Abuse Detection [3.4352862428120123]
本稿では,多言語ソーシャルメディア設定における多モーダル視点からの会話音声における乱用検出を試みる。
提案手法であるMADAは、音声自体以外の2つのモードに明示的にフォーカスする。
提案手法を10の異なる言語で検証し,複数のモダリティを活用することで,0.6%~5.2%の範囲で一貫した利得を観測する。
論文 参考訳(メタデータ) (2022-04-03T13:28:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。