論文の概要: Fine-grained Verbal Attack Detection via a Hierarchical Divide-and-Conquer Framework
- arxiv url: http://arxiv.org/abs/2601.06907v1
- Date: Sun, 11 Jan 2026 13:17:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.058486
- Title: Fine-grained Verbal Attack Detection via a Hierarchical Divide-and-Conquer Framework
- Title(参考訳): 階層型除算フレームワークによる細粒度言語攻撃検出
- Authors: Quan Zheng, Yuanhe Tian, Ming Wang, Yan Song,
- Abstract要約: 本稿では,新たな「階層的攻撃コメント検出」データセットを提案し,言語攻撃認識のためのきめ細かいフレームワークを提案する。
提案したデータセットは階層的な応答構造と時間順を明示的に符号化し,マルチターン議論において複雑な相互作用パターンをキャプチャする。
このデータセットの上に構築されたこのフレームワークは、攻撃検出を階層的なサブタスクに分解する。
- 参考スコア(独自算出の注目度): 21.63587278394972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the digital era, effective identification and analysis of verbal attacks are essential for maintaining online civility and ensuring social security. However, existing research is limited by insufficient modeling of conversational structure and contextual dependency, particularly in Chinese social media where implicit attacks are prevalent. Current attack detection studies often emphasize general semantic understanding while overlooking user response relationships, hindering the identification of implicit and context-dependent attacks. To address these challenges, we present the novel "Hierarchical Attack Comment Detection" dataset and propose a divide-and-conquer, fine-grained framework for verbal attack recognition based on spatiotemporal information. The proposed dataset explicitly encodes hierarchical reply structures and chronological order, capturing complex interaction patterns in multi-turn discussions. Building on this dataset, the framework decomposes attack detection into hierarchical subtasks, where specialized lightweight models handle explicit detection, implicit intent inference, and target identification under constrained context. Extensive experiments on the proposed dataset and benchmark intention detection datasets show that smaller models using our framework significantly outperform larger monolithic models relying on parameter scaling, demonstrating the effectiveness of structured task decomposition.
- Abstract(参考訳): デジタル時代には、オンライン市民性を維持し、社会保障を確保するために、効果的な言語攻撃の識別と分析が不可欠である。
しかし、既存の研究は、特に暗黙の攻撃が一般的である中国のソーシャルメディアにおいて、会話構造と文脈依存のモデリングが不十分なため、制限されている。
現在の攻撃検出研究は、ユーザ応答関係を見下ろしながら、一般的な意味理解を強調し、暗黙的および文脈に依存した攻撃の識別を妨げることが多い。
これらの課題に対処するために,新しい「階層的攻撃コメント検出」データセットを提案し,時空間情報に基づく言語的攻撃認識のための分割・縮小・きめ細かなフレームワークを提案する。
提案したデータセットは階層的な応答構造と時間順を明示的にエンコードし,マルチターン議論において複雑な相互作用パターンをキャプチャする。
このデータセットの上に構築されたこのフレームワークは、攻撃検出を階層的なサブタスクに分解する。
提案したデータセットとベンチマーク意図検出データセットの大規模な実験により、我々のフレームワークを使用した小さなモデルは、パラメータスケーリングに依存したより大きなモノリシックモデルよりも大幅に優れており、構造化されたタスク分解の有効性が示されている。
関連論文リスト
- DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [70.77570343385928]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - Unsupervised dense retrieval with conterfactual contrastive learning [16.679649921935482]
そこで本研究では,高密度検索モデルの高感度化により,高密度検索モデルのロバスト性を向上させることを提案する。
この文脈での感度を達成するモデルは、クエリとの関連性を決定するドキュメントのキーパスが修正されたときに高いばらつきを示すべきである。
因果関係と反事実分析に動機付け, 一連の反事実正則化手法を提案する。
論文 参考訳(メタデータ) (2024-12-30T07:01:34Z) - Addressing Key Challenges of Adversarial Attacks and Defenses in the Tabular Domain: A Methodological Framework for Coherence and Consistency [25.830427564563422]
CSAD(Class-Specific Anomaly Detection)は,新しい異常検出手法である。
CSADは, 広い良性分布ではなく, 予測されたクラス分布に対して, 対数サンプルを評価する。
本評価では, 異常検出率とSHAPに基づく評価を併用し, 対向検体品質のより包括的測定を行う。
論文 参考訳(メタデータ) (2024-12-10T09:17:09Z) - A Survey and Evaluation of Adversarial Attacks for Object Detection [11.48212060875543]
深層学習モデルは、信頼できるが誤った予測をすることを欺くような敵対的な例に対して脆弱である。
この脆弱性は、自動運転車、セキュリティ監視、安全クリティカルな検査システムなどの高リスクなアプリケーションに重大なリスクをもたらす。
本稿では,対象検出アーキテクチャに特有の敵攻撃を分類するための新しい分類枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-04T05:22:08Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Exploiting Multi-Object Relationships for Detecting Adversarial Attacks
in Complex Scenes [51.65308857232767]
ディープニューラルネットワーク(DNN)をデプロイするビジョンシステムは、敵の例に弱いことが知られている。
近年の研究では、入力データの固有成分のチェックは、敵攻撃を検出するための有望な方法であることが示された。
言語モデルを用いてコンテキスト整合性チェックを行う新しい手法を開発した。
論文 参考訳(メタデータ) (2021-08-19T00:52:10Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Adversarial Attack and Defense of Structured Prediction Models [58.49290114755019]
本論文では,NLPにおける構造化予測タスクに対する攻撃と防御について検討する。
構造化予測モデルの構造化出力は、入力中の小さな摂動に敏感である。
本稿では,シーケンス・ツー・シーケンス・モデルを用いて,構造化予測モデルへの攻撃を学習する,新規で統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-04T15:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。