論文の概要: Politics of Adversarial Machine Learning
- arxiv url: http://arxiv.org/abs/2002.05648v3
- Date: Sun, 26 Apr 2020 04:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:57:00.614423
- Title: Politics of Adversarial Machine Learning
- Title(参考訳): 敵対的機械学習の政治
- Authors: Kendra Albert, Jonathon Penney, Bruce Schneier, Ram Shankar Siva Kumar
- Abstract要約: 敵の機械学習攻撃と防衛には政治的側面がある。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定のオプションを有効または前置する。
本稿では、敵攻撃に対する防御が、反抗を抑え、機械学習システムの調査を制限するためにどのように使用できるかを示す。
- 参考スコア(独自算出の注目度): 0.7837881800517111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In addition to their security properties, adversarial machine-learning
attacks and defenses have political dimensions. They enable or foreclose
certain options for both the subjects of the machine learning systems and for
those who deploy them, creating risks for civil liberties and human rights. In
this paper, we draw on insights from science and technology studies,
anthropology, and human rights literature, to inform how defenses against
adversarial attacks can be used to suppress dissent and limit attempts to
investigate machine learning systems. To make this concrete, we use real-world
examples of how attacks such as perturbation, model inversion, or membership
inference can be used for socially desirable ends. Although the predictions of
this analysis may seem dire, there is hope. Efforts to address human rights
concerns in the commercial spyware industry provide guidance for similar
measures to ensure ML systems serve democratic, not authoritarian ends
- Abstract(参考訳): そのセキュリティ特性に加えて、敵の機械学習攻撃や防衛は政治的側面を持っている。
機械学習システムの主題とそれらをデプロイする人たちの両方に対して、特定の選択肢を有効または限定し、市民の自由と人権のリスクを生じさせる。
本稿では, 科学技術研究, 人類学, 人権文学の知見をもとに, 敵対的攻撃に対する防御が, 敵に対する攻撃の抑制や機械学習システムの調査の制限にどのように役立つかを明らかにする。
これを具体化するために、摂動、モデル反転、メンバーシップ推論などの攻撃が社会的に望ましい目的にどのように使用できるかという実例を用いる。
この分析の予測は悲惨に思えるかもしれないが、希望はある。
商用スパイウェア産業における人権問題に対処するための取り組みは、MLシステムが権威主義的な目的ではなく民主的な目的を達成するための同様の措置のガイダンスを提供する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Evaluating the Vulnerabilities in ML systems in terms of adversarial
attacks [0.0]
新たな敵攻撃手法は、現在のディープラーニングサイバー防衛システムに課題をもたらす可能性がある。
著者はAIシステムにおける脆弱性の結果を探求する。
テストフェーズにあるAIシステムを適切にトレーニングし、より広範な使用に備えることが重要です。
論文 参考訳(メタデータ) (2023-08-24T16:46:01Z) - Learning to Defend by Attacking (and Vice-Versa): Transfer of Learning
in Cybersecurity Games [1.14219428942199]
本稿では, 事例ベース学習理論, 心の理論, 学習の伝達の認知能力に着想を得た, 人間の意思決定の新しいモデルを提案する。
このモデルは、ディフェンダーとアタッカーの両方の役割から学び、相手の信念、意図、行動を予測することによって機能する。
シミュレーション実験の結果は、攻撃と防衛の役割で訓練されたエージェントの認知にインスパイアされたモデルの有用性を示す。
論文 参考訳(メタデータ) (2023-06-03T17:51:04Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Machine Learning Featurizations for AI Hacking of Political Systems [0.0]
最近のエッセイ"The Coming AI Hackers"の中で、Schneier氏は、社会、経済、政治システムの脆弱性を発見し、操作し、悪用するための人工知能の将来の応用を提案した。
この研究は、AIハッキングの可能な"機能化"フレームワークを仮定して、機械学習から理論を適用することによって、概念を前進させる。
政治システムの属性や結果を予測するために,さまざまなディープラーニングモデルの応用を可能にするグラフとシーケンスデータ表現を開発した。
論文 参考訳(メタデータ) (2021-10-08T16:51:31Z) - Automating Privilege Escalation with Deep Reinforcement Learning [71.87228372303453]
本研究では,エージェントの訓練に深層強化学習を用いることで,悪意あるアクターの潜在的な脅威を実証する。
本稿では,最先端の強化学習アルゴリズムを用いて,局所的な特権エスカレーションを行うエージェントを提案する。
我々のエージェントは、実際の攻撃センサーデータを生成し、侵入検知システムの訓練と評価に利用できる。
論文 参考訳(メタデータ) (2021-10-04T12:20:46Z) - Adversarial for Good? How the Adversarial ML Community's Values Impede
Socially Beneficial Uses of Attacks [1.2664869982542892]
対人機械学習(ML)攻撃は「善のために」使われる可能性がある
しかし、敵対的MLに関する研究の多くは、MLシステムに対する抵抗ツールの開発に関わっていない。
論文 参考訳(メタデータ) (2021-07-11T13:51:52Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - State of the Art in Fair ML: From Moral Philosophy and Legislation to Fair Classifiers [1.3300455020806103]
機械学習は、多くの決定が機械学習アルゴリズムによってなされるにつれて、私たちの生活に永遠に存在している部分になりつつある。
判決はしばしば不公平であり、人種や性別に基づいて保護された集団を差別する。
この研究は、差別、それに対抗する立法府、そして機械学習アルゴリズムをそのような行動から検出し、予防するための戦略について紹介することを目的としている。
論文 参考訳(メタデータ) (2018-11-20T12:03:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。