論文の概要: Fake Resume Attacks: Data Poisoning on Online Job Platforms
- arxiv url: http://arxiv.org/abs/2402.14124v1
- Date: Wed, 21 Feb 2024 20:46:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 08:46:38.692116
- Title: Fake Resume Attacks: Data Poisoning on Online Job Platforms
- Title(参考訳): Fake Resume攻撃: オンラインジョブプラットフォーム上でのデータポリシ
- Authors: Michiharu Yamashita, Thanh Tran, Dongwon Lee,
- Abstract要約: オンライン求職プラットフォーム上での求職者と企業をマッチングする共通人材タスクに見られる重大な脆弱性を実証する。
我々は、データ中毒による系統的な予測エラーを誘発するFRANCISという、エンドツーエンドの「フェイク履歴」生成フレームワークを開発した。
- 参考スコア(独自算出の注目度): 6.043830060363904
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While recent studies have exposed various vulnerabilities incurred from data poisoning attacks in many web services, little is known about the vulnerability on online professional job platforms (e.g., LinkedIn and Indeed). In this work, first time, we demonstrate the critical vulnerabilities found in the common Human Resources (HR) task of matching job seekers and companies on online job platforms. Capitalizing on the unrestricted format and contents of job seekers' resumes and easy creation of accounts on job platforms, we demonstrate three attack scenarios: (1) company promotion attack to increase the likelihood of target companies being recommended, (2) company demotion attack to decrease the likelihood of target companies being recommended, and (3) user promotion attack to increase the likelihood of certain users being matched to certain companies. To this end, we develop an end-to-end "fake resume" generation framework, titled FRANCIS, that induces systematic prediction errors via data poisoning. Our empirical evaluation on real-world datasets reveals that data poisoning attacks can markedly skew the results of matchmaking between job seekers and companies, regardless of underlying models, with vulnerability amplified in proportion to poisoning intensity. These findings suggest that the outputs of various services from job platforms can be potentially hacked by malicious users.
- Abstract(参考訳): 最近の調査では、多くのWebサービスでデータ中毒攻撃によって引き起こされたさまざまな脆弱性が明らかにされているが、オンラインのプロフェッショナルな仕事プラットフォーム(例えば、LinkedInやIndentual)の脆弱性についてはほとんど知られていない。
本研究は,オンライン求人プラットフォーム上での求人者と企業をマッチングする共通人事(HR)タスクにおいて,まず重要な脆弱性を実証するものである。
対象企業の推薦可能性を高めるための企業促進攻撃、推奨企業の推薦可能性を減らすための企業脱落攻撃、特定企業との適合可能性を高めるためのユーザ促進攻撃の3つの攻撃シナリオを示す。
この目的のために、我々は、データ中毒による系統的な予測エラーを誘発するFRANCISというエンドツーエンドの「フェイク履歴」生成フレームワークを開発した。
実世界のデータセットに対する実証的な評価によると、データ中毒攻撃は、基礎となるモデルに関係なく、求職者と企業間のマッチングの結果を著しく損なう可能性があり、その脆弱性は中毒の強度に比例して増幅されている。
これらの結果は、ジョブプラットフォームからのさまざまなサービスのアウトプットが悪意のあるユーザによってハックされる可能性があることを示唆している。
関連論文リスト
- Indiscriminate Data Poisoning Attacks on Pre-trained Feature Extractors [26.36344184385407]
本稿では,事前訓練した特徴抽出器を応用した下流タスクに対する無差別攻撃の脅威について検討する。
入力空間攻撃とは,(1)既存の攻撃を修正して入力空間に有毒なデータを作る攻撃と,(2)学習した特徴表現をデータセットとして扱うことで有毒な特徴を見つける攻撃である。
実験では、同じデータセット上の微調整やドメイン適応を考慮した転帰学習など、下流の一般的なタスクにおける攻撃について検討した。
論文 参考訳(メタデータ) (2024-02-20T01:12:59Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Poisoning Web-Scale Training Datasets is Practical [73.34964403079775]
モデルの性能に悪意のある事例を意図的に導入する2つの新しいデータセット中毒攻撃を導入する。
最初の攻撃、スプリットビュー中毒は、インターネットコンテンツの不変性を利用して、データセットアノテータの初期ビューが、その後のクライアントがダウンロードしたビューとは異なることを保証します。
第2の攻撃、フロントラン中毒は、クラウドソースされたコンテンツを定期的にスナップショットするWebスケールデータセットをターゲットにしている。
論文 参考訳(メタデータ) (2023-02-20T18:30:54Z) - Detecting adversaries in Crowdsourcing [71.20185379303479]
本研究は, クラウドソース型分類における敵の影響を, 人気のダウィド・アンド・スケネモデルを用いて検討する。
敵は、クラウドソーシングモデルから任意に逸脱することを許され、潜在的に協力する可能性がある。
我々は,アノテータ応答の2次モーメント構造を利用して,多数の敵を識別し,クラウドソーシングタスクへの影響を軽減するアプローチを開発した。
論文 参考訳(メタデータ) (2021-10-07T15:07:07Z) - Defening against Adversarial Denial-of-Service Attacks [0.0]
データ中毒は、機械学習とデータ駆動技術に対する最も関連するセキュリティ脅威の1つです。
我々は,dos有毒なインスタンスを検出する新しい手法を提案する。
2つのdos毒殺攻撃と7つのデータセットに対する我々の防御を評価し、毒殺事例を確実に特定できることを確認します。
論文 参考訳(メタデータ) (2021-04-14T09:52:36Z) - Data Poisoning Attacks and Defenses to Crowdsourcing Systems [26.147716118854614]
クラウドソーシングはデータ中毒攻撃に対して脆弱であることを示す。
悪意のあるクライアントは、集約されたデータを壊すために注意深く作られたデータを提供します。
悪質なクライアントの影響を減らすため、2つの防御策を提案する。
論文 参考訳(メタデータ) (2021-02-18T06:03:48Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Revisiting Adversarially Learned Injection Attacks Against Recommender
Systems [6.920518936054493]
本稿では,逆学習型インジェクションアタック問題を再考する。
我々は、最適化問題として偽ユーザーを生成するための正確な解決策が、はるかに大きな影響をもたらすことを示している。
論文 参考訳(メタデータ) (2020-08-11T17:30:02Z) - Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and
Data Poisoning Attacks [74.88735178536159]
データ中毒は、モデル盗難から敵の攻撃まで、脅威の中で一番の懸念事項だ。
データ中毒やバックドア攻撃は、テスト設定のバリエーションに非常に敏感である。
厳格なテストを適用して、それらを恐れるべき程度を判断します。
論文 参考訳(メタデータ) (2020-06-22T18:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。