論文の概要: Harm or Humor: A Multimodal, Multilingual Benchmark for Overt and Covert Harmful Humor
- arxiv url: http://arxiv.org/abs/2603.17759v1
- Date: Wed, 18 Mar 2026 14:21:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.746877
- Title: Harm or Humor: A Multimodal, Multilingual Benchmark for Overt and Covert Harmful Humor
- Title(参考訳): Harm or Humor:マルチモーダルなマルチ言語ベンチマーク
- Authors: Ahmed Sharshar, Hosam Elgendy, Saad El Dine Ahmed, Yasser Rohaim, Yuxia Wang,
- Abstract要約: 有害で不快なユーモアを検知し理解するための新しいマルチモーダル・マルチ言語ベンチマークを導入する。
私たちのデータセットは、英語、アラビア語、言語に依存しないコンテキストにまたがる1200の動画とともに、3,000のテキストと6000の画像で構成されています。
- 参考スコア(独自算出の注目度): 10.926438279818912
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dark humor often relies on subtle cultural nuances and implicit cues that require contextual reasoning to interpret, posing safety challenges that current static benchmarks fail to capture. To address this, we introduce a novel multimodal, multilingual benchmark for detecting and understanding harmful and offensive humor. Our manually curated dataset comprises 3,000 texts and 6,000 images in English and Arabic, alongside 1,200 videos that span English, Arabic, and language-independent (universal) contexts. Unlike standard toxicity datasets, we enforce a strict annotation guideline: distinguishing \emph{Safe} jokes from \emph{Harmful} ones, with the latter further classified into \emph{Explicit} (overt) and \emph{Implicit} (Covert) categories to probe deep reasoning. We systematically evaluate state-of-the-art (SOTA) open and closed-source models across all modalities. Our findings reveal that closed-source models significantly outperform open-source ones, with a notable difference in performance between the English and Arabic languages in both, underscoring the critical need for culturally grounded, reasoning-aware safety alignment. \textcolor{red}{Warning: this paper contains example data that may be offensive, harmful, or biased.}
- Abstract(参考訳): 暗黒のユーモアは、しばしば微妙な文化的ニュアンスと暗黙の手がかりに頼っている。
そこで本研究では,有害で不快なユーモアを検知し,理解するための,新しいマルチモーダル・マルチ言語ベンチマークを提案する。
私たちの手作業によるデータセットは、英語、アラビア語、および言語に依存しない(普遍的な)コンテキストにまたがる1200の動画とともに、3,000のテキストと6000の画像を英語とアラビア語で作成しています。
標準的な毒性データセットとは異なり、我々は厳密な注釈ガイドラインを強制する: \emph{Safe} ジョークと \emph{Harmful} ジョークを区別し、後者はより深い推論を調査するために \emph{Explicit} (overt) と \emph{Implicit} (Covert) に分類される。
我々は,すべてのモダリティにわたって,最先端(SOTA)のオープンおよびクローズドソースモデルを体系的に評価した。
以上の結果から,クローズド・ソース・モデルは,英語とアラビア語の双方のパフォーマンスに顕著な違いがあり,文化的根拠と推論を意識した安全アライメントの必要性が指摘されている。
textcolor{red}{Warning: 攻撃的、有害、偏見のあるサンプルデータを含む。
※
関連論文リスト
- MixSarc: A Bangla-English Code-Mixed Corpus for Implicit Meaning Identification [0.10874100424278171]
最初に公開されたBangla-Englishコード混成コーパスであるMixSarcを紹介した。
データセットには、ユーモア、皮肉、不快感、華やかさをラベル付けした9,087の注釈付き文が含まれている。
その結果、ユーモア検出では高い性能を示したが、クラス不均衡と実用的複雑性により、皮肉、悪感、および下品性は著しく低下した。
論文 参考訳(メタデータ) (2026-02-25T06:12:06Z) - Lingua-SafetyBench: A Benchmark for Safety Evaluation of Multilingual Vision-Language Models [54.10540442330978]
既存のベンチマークは、典型的にはマルチリンガルだがテキストのみ、あるいはマルチモーダルだがモノリンガルである。
近年の多言語的赤チームの取り組みは、画像に有害なプロンプトを与えるが、タイポグラフィースタイルの視覚に強く依存している。
10言語にまたがる100,440の有害な画像テキストペアのベンチマークを導入し、明示的に画像支配サブセットとテキスト支配サブセットに分割する。
論文 参考訳(メタデータ) (2026-01-30T09:18:13Z) - UbuntuGuard: A Culturally-Grounded Policy Benchmark for Equitable AI Safety in African Languages [18.40701733030824]
現在のガーディアンモデルは、主に西洋中心で、高リソース言語に最適化されている。
我々はUbuntuGuardを紹介した。これは155のドメインエキスパートによって書かれた敵クエリから構築された、アフリカ初のポリシーベースの安全ベンチマークだ。
論文 参考訳(メタデータ) (2026-01-19T03:37:56Z) - Toxicity Red-Teaming: Benchmarking LLM Safety in Singapore's Low-Resource Languages [57.059267233093465]
大規模言語モデル(LLM)は自然言語処理を変革しているが、その安全性メカニズムは低リソースで多言語的な設定では未探索のままである。
シンガポールの多様な言語文脈におけるLLM安全性をベンチマークするための新しいデータセットおよび評価フレームワークであるtextsfSGToxicGuardを紹介した。
我々は最先端の多言語LLMによる広範囲な実験を行い、その安全ガードレールの限界を明らかにする。
論文 参考訳(メタデータ) (2025-09-18T08:14:34Z) - Toxicity-Aware Few-Shot Prompting for Low-Resource Singlish Translation [3.7678366606419345]
低リソースの言語ペア間の有害な内容の翻訳は、攻撃的な表現を衛生化するための並列データと安全フィルタの不足による課題を提起する。
コードミキシングされたSinglishセーフティコーパス上で実証された毒性保存翻訳のための2段階のフレームワークを提案する。
我々は,Singlishを包括的NLPテストベッドとして位置づけることにより,実世界の応用における社会言語的ニュアンスを維持することの重要性を強調した。
論文 参考訳(メタデータ) (2025-07-16T06:58:02Z) - NusaWrites: Constructing High-Quality Corpora for Underrepresented and
Extremely Low-Resource Languages [54.808217147579036]
インドネシアの地方言語について事例研究を行う。
データセット構築におけるオンラインスクラップ,人文翻訳,および母語話者による段落作成の有効性を比較した。
本研究は,母語話者による段落作成によって生成されたデータセットが,語彙的多様性と文化的内容の点で優れた品質を示すことを示す。
論文 参考訳(メタデータ) (2023-09-19T14:42:33Z) - No Language Left Behind: Scaling Human-Centered Machine Translation [69.28110770760506]
低レベルの言語と高レベルの言語のパフォーマンスギャップを狭めるためのデータセットとモデルを作成します。
何千ものタスクをトレーニングしながらオーバーフィッティングに対処するために,複数のアーキテクチャとトレーニングの改善を提案する。
本モデルでは,従来の最先端技術と比較して,BLEUの44%の改善を実現している。
論文 参考訳(メタデータ) (2022-07-11T07:33:36Z) - Offense Detection in Dravidian Languages using Code-Mixing Index based
Focal Loss [1.7267596343997798]
攻撃的内容を特定する複雑さは、複数のモダリティの使用によって悪化する。
我々のモデルは、低リソース、クラス不均衡、多言語、コード混合設定で攻撃的な言語検出を処理できる。
論文 参考訳(メタデータ) (2021-11-12T19:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。