論文の概要: Busting the Paper Ballot: Voting Meets Adversarial Machine Learning
- arxiv url: http://arxiv.org/abs/2506.14582v1
- Date: Tue, 17 Jun 2025 14:38:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.527334
- Title: Busting the Paper Ballot: Voting Meets Adversarial Machine Learning
- Title(参考訳): 紙の投票をバスする: 投票は敵の機械学習と出会う
- Authors: Kaleel Mahmood, Caleb Manicke, Ethan Rathbun, Aayushi Verma, Sohaib Ahmad, Nicholas Stamatakis, Laurent Michel, Benjamin Fuller,
- Abstract要約: アメリカの選挙集計装置における機械学習の利用に伴うセキュリティリスクを示す。
4つの新しい投票データセットで、さまざまなモデルのトレーニングとテストを行います。
我々は, 新たな手法を用いて, 敵の例を用いて攻撃を行う。
- 参考スコア(独自算出の注目度): 2.31948340923087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We show the security risk associated with using machine learning classifiers in United States election tabulators. The central classification task in election tabulation is deciding whether a mark does or does not appear on a bubble associated to an alternative in a contest on the ballot. Barretto et al. (E-Vote-ID 2021) reported that convolutional neural networks are a viable option in this field, as they outperform simple feature-based classifiers. Our contributions to election security can be divided into four parts. To demonstrate and analyze the hypothetical vulnerability of machine learning models on election tabulators, we first introduce four new ballot datasets. Second, we train and test a variety of different models on our new datasets. These models include support vector machines, convolutional neural networks (a basic CNN, VGG and ResNet), and vision transformers (Twins and CaiT). Third, using our new datasets and trained models, we demonstrate that traditional white box attacks are ineffective in the voting domain due to gradient masking. Our analyses further reveal that gradient masking is a product of numerical instability. We use a modified difference of logits ratio loss to overcome this issue (Croce and Hein, ICML 2020). Fourth, in the physical world, we conduct attacks with the adversarial examples generated using our new methods. In traditional adversarial machine learning, a high (50% or greater) attack success rate is ideal. However, for certain elections, even a 5% attack success rate can flip the outcome of a race. We show such an impact is possible in the physical domain. We thoroughly discuss attack realism, and the challenges and practicality associated with printing and scanning ballot adversarial examples.
- Abstract(参考訳): 米国大統領選挙集計装置における機械学習分類器の使用に伴うセキュリティリスクを示す。
選挙集計における中央分類タスクは、投票におけるコンテストにおいて、あるマークが代替品に関連するバブルに現れるか否かを決定することである。
Barretto et al (E-Vote-ID 2021) は、畳み込みニューラルネットワークが、単純な特徴ベースの分類器よりも優れているため、この分野において実行可能な選択肢であると報告している。
選挙安全への我々の貢献は4つの部分に分けられる。
選挙集計装置における機械学習モデルの仮説的脆弱性を実証し分析するために、まず4つの新しい投票データセットを導入する。
次に、新しいデータセットでさまざまなモデルをトレーニングし、テストします。
これらのモデルには、サポートベクターマシン、畳み込みニューラルネットワーク(基本的なCNN、VGG、ResNet)、ビジョントランスフォーマー(TwinsとCaiT)が含まれる。
第3に、我々の新しいデータセットとトレーニングされたモデルを用いて、従来のホワイトボックス攻撃が勾配マスキングによる投票領域では効果がないことを示した。
解析の結果,勾配マスキングは数値不安定性の産物であることが明らかとなった。
この問題を克服するために,ロジット比損失の修正版(Croce and Hein, ICML 2020)を使用します。
第4に, 物理世界では, 新たな手法を用いて生成した敵の例を用いて攻撃を行う。
従来の機械学習では、高い(50%以上の)攻撃の成功率が理想的である。
しかし、特定の選挙では、5%の攻撃の成功率でさえ、レースの結果を覆す可能性がある。
物理的領域においてそのような影響が可能であることを示す。
本稿では,アタックリアリズムと,印刷・スキャンにおける課題と実用性について論じる。
関連論文リスト
- Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Data as voters: instance selection using approval-based multi-winner voting [1.597617022056624]
機械学習(あるいはデータマイニング)におけるインスタンス選択問題に対する新しいアプローチを提案する。
私たちのモデルでは、インスタンスは有権者と候補者として二重の役割を担います。
SVM では,EJR や PJR を満たすいくつかの投票規則を用いて,平均精度をわずかに向上させた。
論文 参考訳(メタデータ) (2023-04-19T22:00:23Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Privacy Attacks Against Biometric Models with Fewer Samples:
Incorporating the Output of Multiple Models [2.1874132949602654]
認証システムは、敵がターゲット機械学習モデルの逆を近似するモデル逆攻撃に対して脆弱である。
これは、生体認証モデルを反転させることで、攻撃者が生体認証システムに現実的な生体認証入力を生成できるためである。
本稿では,モデル逆攻撃に必要なトレーニングデータを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T14:00:43Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Predicting Propensity to Vote with Machine Learning [0.0]
機械学習は、個人が過去の行動や属性から投票する確率を推測することを可能にすることを実証する。
これは、投票者のアウトリーチ、投票者教育、投票者獲得キャンペーン(GOVT)のマイクロターゲット化に有用である。
論文 参考訳(メタデータ) (2021-02-02T15:04:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。