論文の概要: A New Task and Dataset on Detecting Attacks on Human Rights Defenders
- arxiv url: http://arxiv.org/abs/2306.17695v1
- Date: Fri, 30 Jun 2023 14:20:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 12:06:59.101559
- Title: A New Task and Dataset on Detecting Attacks on Human Rights Defenders
- Title(参考訳): 人権擁護者への攻撃検知に関する新しい課題とデータセット
- Authors: Shihao Ran, Di Lu, Joel Tetreault, Aoife Cahill, Alejandro Jaimes
- Abstract要約: 我々は,500のオンラインニュース記事にクラウドソーシングされたアノテーションからなる人権擁護者に対する攻撃(HRDsAttack)を検出するための新しいデータセットを提案する。
アノテーションには、攻撃のタイプと場所に関する詳細な情報と、被害者に関する情報が含まれている。
いくつかのサブタスク上でベースラインモデルをトレーニングし,評価し,注釈付き特性を予測することで,データセットの有用性を実証する。
- 参考スコア(独自算出の注目度): 68.45906430323156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to conduct retrospective analyses of attacks on human rights
defenders over time and by location is important for humanitarian organizations
to better understand historical or ongoing human rights violations and thus
better manage the global impact of such events. We hypothesize that NLP can
support such efforts by quickly processing large collections of news articles
to detect and summarize the characteristics of attacks on human rights
defenders. To that end, we propose a new dataset for detecting Attacks on Human
Rights Defenders (HRDsAttack) consisting of crowdsourced annotations on 500
online news articles. The annotations include fine-grained information about
the type and location of the attacks, as well as information about the
victim(s). We demonstrate the usefulness of the dataset by using it to train
and evaluate baseline models on several sub-tasks to predict the annotated
characteristics.
- Abstract(参考訳): 人権擁護者に対する攻撃を時間と場所によって振り返り分析する能力は、人道団体にとって歴史的または進行中の人権侵害をよりよく理解し、そのような出来事のグローバルな影響を管理することが重要である。
我々は,NLPがニュース記事の大量収集を迅速に処理し,人権擁護者に対する攻撃の特徴を検出し,要約することで,そのような取り組みを支援することができると仮定する。
そこで我々は,500のオンラインニュース記事にクラウドソーシングされたアノテーションからなるHRDsAttack(Actions on Human Rights Defenders)を検出する新しいデータセットを提案する。
アノテーションには、攻撃のタイプと場所、および被害者に関する情報に関する詳細な情報が含まれている。
いくつかのサブタスク上でベースラインモデルをトレーニングし,評価し,注釈付き特性を予測することで,データセットの有用性を示す。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - HumVI: A Multilingual Dataset for Detecting Violent Incidents Impacting Humanitarian Aid [6.0520837495927315]
HumVIは、3つの言語(英語、フランス語、アラビア語)のニュース記事を含むデータセットで、それらが影響する人道セクターによって分類された暴力的な事件の事例を含む。
データセットのベンチマークを提供し、データ拡張やマスク損失など、さまざまなディープラーニングアーキテクチャとテクニックを活用しています。
論文 参考訳(メタデータ) (2024-10-08T21:08:13Z) - Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - Optimal Zero-Shot Detector for Multi-Armed Attacks [30.906457338347447]
本稿では,悪意あるアクターが多武器攻撃戦略を用いてデータサンプルを操作するシナリオについて考察する。
私たちの中心的な目的は、入力の変更を検出してデータを保護することです。
我々はこれらの検出器による決定を最適に集約する革新的な情報理論防衛手法を導出する。
論文 参考訳(メタデータ) (2024-02-24T13:08:39Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Combating Informational Denial-of-Service (IDoS) Attacks: Modeling and
Mitigation of Attentional Human Vulnerability [28.570086492742046]
IDoS攻撃は、人間のオペレーターの認知資源を減らし、人間の顔に隠された本当の攻撃を識別するのを防ぐ。
本研究の目的は、IDoS攻撃の重症度とリスクを軽減するために、IDoS攻撃を正式に定義し、その結果を定量化し、ヒューマンアシストセキュリティ技術を開発することである。
論文 参考訳(メタデータ) (2021-08-04T05:09:32Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。