論文の概要: Legal Risks of Adversarial Machine Learning Research
- arxiv url: http://arxiv.org/abs/2006.16179v1
- Date: Mon, 29 Jun 2020 16:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 15:23:40.902481
- Title: Legal Risks of Adversarial Machine Learning Research
- Title(参考訳): 敵対的機械学習研究の法的リスク
- Authors: Ram Shankar Siva Kumar, Jonathon Penney, Bruce Schneier, Kendra Albert
- Abstract要約: 我々は,いかなる運用システムのセキュリティについても,コンピュータ不正使用防止法(CFAA, Computer Fraud and Abuse Act)を施行する可能性があることを示す。
我々の分析では、CFAAの解釈方法に違いがあるため、敵ML攻撃の側面はいくつかの管轄区域で認可され、他の領域では罰せられません。
我々は、裁判所がCFAAの狭い構成を採用する可能性があり、これが長期的には敵のMLセキュリティのより良い結果をもたらすと論じている。
- 参考スコア(独自算出の注目度): 0.7837881800517111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial Machine Learning is booming with ML researchers increasingly
targeting commercial ML systems such as those used in Facebook, Tesla,
Microsoft, IBM, Google to demonstrate vulnerabilities. In this paper, we ask,
"What are the potential legal risks to adversarial ML researchers when they
attack ML systems?" Studying or testing the security of any operational system
potentially runs afoul the Computer Fraud and Abuse Act (CFAA), the primary
United States federal statute that creates liability for hacking. We claim that
Adversarial ML research is likely no different. Our analysis show that because
there is a split in how CFAA is interpreted, aspects of adversarial ML attacks,
such as model inversion, membership inference, model stealing, reprogramming
the ML system and poisoning attacks, may be sanctioned in some jurisdictions
and not penalized in others. We conclude with an analysis predicting how the US
Supreme Court may resolve some present inconsistencies in the CFAA's
application in Van Buren v. United States, an appeal expected to be decided in
2021. We argue that the court is likely to adopt a narrow construction of the
CFAA, and that this will actually lead to better adversarial ML security
outcomes in the long term.
- Abstract(参考訳): Adversarial Machine Learningは、脆弱性を示すためにFacebook、Tesla、Microsoft、IBM、Googleなどの商用MLシステムをターゲットにするML研究者が急増している。
この論文では、"mlシステムを攻撃する際に、敵対的なml研究者にとって潜在的な法的リスクは何か"と問う。
あらゆる運用システムのセキュリティを調査またはテストすることは、ハッキングの責任を負う米国の連邦法典であるcomputer fraud and abuse act (cfaa) を実行する可能性がある。
我々は、Adversarial ML研究はおそらく変わらないと主張している。
我々の分析では、CFAAの解釈方法に違いがあるため、モデル逆転、メンバーシップ推論、モデル盗難、MLシステムの再プログラミング、毒殺攻撃といった敵対的ML攻撃の側面は、いくつかの管轄区域で認可され、他の領域では罰せられない可能性がある。
我々は、米国最高裁判所がヴァンビューレン対アメリカ合衆国裁判におけるCFAAの現在の不一致をどう解決するかを予測する分析で締めくくった。
我々は、裁判所がCFAAの狭い構成を採用する可能性があり、これが長期的には敵のMLセキュリティにより良い結果をもたらすと論じている。
関連論文リスト
- Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - Review on the Feasibility of Adversarial Evasion Attacks and Defenses
for Network Intrusion Detection Systems [0.7829352305480285]
最近の研究は、サイバーセキュリティ分野における多くの懸念を提起している。
機械学習アルゴリズムに基づくセキュリティシステムに対する攻撃の可能性について研究する研究者が増えている。
論文 参考訳(メタデータ) (2023-03-13T11:00:05Z) - Adv-Bot: Realistic Adversarial Botnet Attacks against Network Intrusion
Detection Systems [0.7829352305480285]
最近、機械学習ベースのセキュリティシステムに対する攻撃の可能性について調査する研究者が増えている。
本研究では,ネットワークによる侵入検知システムに対する敵攻撃,特に回避攻撃の実現可能性について検討した。
私たちのゴールは、意図した悪意のある機能をすべて実行しながら、検出を回避できる敵ボットネットトラフィックを作ることです。
論文 参考訳(メタデータ) (2023-03-12T14:01:00Z) - The Role of Machine Learning in Cybersecurity [1.6932802756478726]
サイバーセキュリティにおける機械学習の展開はまだ初期段階であり、研究と実践の間には大きな違いがある。
本論文は,サイバーセキュリティ領域全体におけるMLの役割を包括的に理解するための最初の試みである。
我々は、ヒューマン駆動検出手法に対するMLの利点と、サイバーセキュリティにおけるMLによって対処できる追加のタスクを強調した。
論文 参考訳(メタデータ) (2022-06-20T10:56:08Z) - Adversarial for Good? How the Adversarial ML Community's Values Impede
Socially Beneficial Uses of Attacks [1.2664869982542892]
対人機械学習(ML)攻撃は「善のために」使われる可能性がある
しかし、敵対的MLに関する研究の多くは、MLシステムに対する抵抗ツールの開発に関わっていない。
論文 参考訳(メタデータ) (2021-07-11T13:51:52Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - White Paper Machine Learning in Certified Systems [70.24215483154184]
DEEL Project set-up the ML Certification 3 Workgroup (WG) set-up by the Institut de Recherche Technologique Saint Exup'ery de Toulouse (IRT)
論文 参考訳(メタデータ) (2021-03-18T21:14:30Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。