論文の概要: Analyzing Physical Adversarial Example Threats to Machine Learning in Election Systems
- arxiv url: http://arxiv.org/abs/2603.00481v1
- Date: Sat, 28 Feb 2026 05:49:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.218206
- Title: Analyzing Physical Adversarial Example Threats to Machine Learning in Election Systems
- Title(参考訳): 選挙システムにおける機械学習に対する身体的対立事例の脅威分析
- Authors: Khaleque Md Aashiq Kamal, Surya Eada, Aayushi Verma, Subek Acharya, Adrian Yemin, Benjamin Fuller, Kaleel Mahmood,
- Abstract要約: 我々は、米国の選挙を危険にさらすために、機械学習の投票者に対する敵対的な例を配置しようとする攻撃者を分析する。
まず、各候補者の当選確率と投票総数の観点から、選挙を覆すために印刷しなければならない敵のサンプル投票数を決定する確率的枠組みを導出する。
我々は,l_infinity-APGD,l2-APGD,l1-APGD,l0 PGD,l0 + l_infinity PGD,l0 + sigma-map PGDの6種類の対向攻撃を解析した。
- 参考スコア(独自算出の注目度): 1.747700207215688
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developments in the machine learning voting domain have shown both promising results and risks. Trained models perform well on ballot classification tasks (> 99% accuracy) but are at risk from adversarial example attacks that cause misclassifications. In this paper, we analyze an attacker who seeks to deploy adversarial examples against machine learning ballot classifiers to compromise a U.S. election. We first derive a probabilistic framework for determining the number of adversarial example ballots that must be printed to flip an election, in terms of the probability of each candidate winning and the total number of ballots cast. Second, it is an open question as to which type of adversarial example is most effective when physically printed in the voting domain. We analyze six different types of adversarial example attacks: l_infinity-APGD, l2-APGD, l1-APGD, l0 PGD, l0 + l_infinity PGD, and l0 + sigma-map PGD. Our experiments include physical realizations of 144,000 adversarial examples through printing and scanning with four different machine learning models. We empirically demonstrate an analysis gap between the physical and digital domains, wherein attacks most effective in the digital domain (l2 and l_infinity) differ from those most effective in the physical domain (l1 and l2, depending on the model). By unifying a probabilistic election framework with digital and physical adversarial example evaluations, we move beyond prior close race analyses to explicitly quantify when and how adversarial ballot manipulation could alter outcomes.
- Abstract(参考訳): 機械学習投票領域の開発は、有望な結果とリスクの両方を示している。
訓練されたモデルは、投票分類タスク(>99%の精度)でうまく機能するが、誤分類を引き起こす敵の例攻撃によるリスクがある。
本稿では、アメリカ大統領選挙を危険にさらすために、機械学習の投票者に対して敵対的な例を展開しようとする攻撃者を分析する。
まず、各候補者の当選確率と投票総数の観点から、選挙を覆すために印刷しなければならない敵のサンプル投票数を決定する確率的枠組みを導出する。
第二に、投票領域に物理的に印刷する場合、どの種類の敵例が最も効果的かは、オープンな疑問である。
我々は,l_infinity-APGD,l2-APGD,l1-APGD,l0 PGD,l0 + l_infinity PGD,l0 + sigma-map PGDの6種類の対向攻撃を解析した。
実験では、4つの異なる機械学習モデルを用いて、印刷とスキャンによって144,000の逆例を物理的に実現した。
我々は、物理領域とデジタル領域の間の分析ギャップを実証的に示し、デジタルドメインにおいて最も効果的な攻撃(l2とl_infinity)は、物理ドメインにおいて最も有効な攻撃(l1とl2)と異なる(モデルによって異なる)。
確率的選挙枠組みをデジタルおよび物理的対人的事例評価と一体化することにより、我々は、いつ、どのように対人投票操作が結果を変えるかを明確に定量化するために、事前のクローズドレース分析を超越する。
関連論文リスト
- Busting the Paper Ballot: Voting Meets Adversarial Machine Learning [2.31948340923087]
アメリカの選挙集計装置における機械学習の利用に伴うセキュリティリスクを示す。
4つの新しい投票データセットで、さまざまなモデルのトレーニングとテストを行います。
我々は, 新たな手法を用いて, 敵の例を用いて攻撃を行う。
論文 参考訳(メタデータ) (2025-06-17T14:38:08Z) - Indiscriminate Disruption of Conditional Inference on Multivariate Gaussians [60.22542847840578]
敵対的機械学習の進歩にもかかわらず、敵対者の存在下でのガウスモデルに対する推論は特に過小評価されている。
我々は,意思決定者の条件推論とその後の行動の妨害を希望する自己関心のある攻撃者について,一組の明らかな変数を乱すことで検討する。
検出を避けるため、攻撃者は、破損した証拠の密度によって可否が決定される場合に、攻撃が可否を示すことを望んでいる。
論文 参考訳(メタデータ) (2024-11-21T17:46:55Z) - Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - PRAT: PRofiling Adversarial aTtacks [52.693011665938734]
PRofiling Adversarial aTacks (PRAT) の新たな問題点について紹介する。
敵対的な例として、PRATの目的は、それを生成するのに使用される攻撃を特定することである。
AIDを用いてPRATの目的のための新しいフレームワークを考案する。
論文 参考訳(メタデータ) (2023-09-20T07:42:51Z) - Data as voters: instance selection using approval-based multi-winner voting [1.597617022056624]
機械学習(あるいはデータマイニング)におけるインスタンス選択問題に対する新しいアプローチを提案する。
私たちのモデルでは、インスタンスは有権者と候補者として二重の役割を担います。
SVM では,EJR や PJR を満たすいくつかの投票規則を用いて,平均精度をわずかに向上させた。
論文 参考訳(メタデータ) (2023-04-19T22:00:23Z) - Tracing the Origin of Adversarial Attack for Forensic Investigation and
Deterrence [26.301784771724954]
ディープニューラルネットワークは敵の攻撃に弱い。
本稿では,攻撃を追跡・特定したい研究者の役割について述べる。
本稿では,2段階の分離トレースフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-31T01:38:02Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Modeling Voters in Multi-Winner Approval Voting [24.002910959494923]
我々は,不確実性の度合いの異なる単入投票と多入投票の投票行動について検討した。
概して、人々はより良い結果を得るために投票を操作しているが、しばしば最適な操作を特定できない。
本稿では,勝利集合の大きさと人間の認知的制約を考慮に入れた新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-12-04T19:24:28Z) - On Adversarial Examples and Stealth Attacks in Artificial Intelligence
Systems [62.997667081978825]
本稿では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と分析を行うための公式な枠組みを提案する。
最初のクラスは、逆例を含み、誤分類を引き起こす入力データの小さな摂動の導入を懸念する。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
論文 参考訳(メタデータ) (2020-04-09T10:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。