論文の概要: The Dangers of Computational Law and Cybersecurity; Perspectives from
Engineering and the AI Act
- arxiv url: http://arxiv.org/abs/2207.00295v1
- Date: Fri, 1 Jul 2022 09:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:33:51.141219
- Title: The Dangers of Computational Law and Cybersecurity; Perspectives from
Engineering and the AI Act
- Title(参考訳): 計算法とサイバーセキュリティの危険性 : 工学とAI法の立場から
- Authors: Kaspar Rosager Ludvigsen, Shishir Nagaraja, Angela Daly
- Abstract要約: 計算法は、しばらくの間予測されていた社会において役割を担ってきた。
本稿では,既知の課題を概観し,設計から物理領域まで,さまざまなレベルで議論する。
計算法則がグローバルに機能するために必要な3つの勧告を提示する。
- 参考スコア(独自算出の注目度): 1.332091725929965
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computational Law has begun taking the role in society which has been
predicted for some time. Automated decision-making and systems which assist
users are now used in various jurisdictions, but with this maturity come
certain caveats. Computational Law exists on the platforms which enable it, in
this case digital systems, which means that it inherits the same flaws.
Cybersecurity addresses these potential weaknesses. In this paper we go through
known issues and discuss them in the various levels, from design to the
physical realm. We also look at machine-learning specific adversarial problems.
Additionally, we make certain considerations regarding computational law and
existing and future legislation. Finally, we present three recommendations
which are necessary for computational law to function globally, and which
follow ideas in safety and security engineering. As indicated, we find that
computational law must seriously consider that not only does it face the same
risks as other types of software and computer systems, but that failures within
it may cause financial or physical damage, as well as injustice. Consequences
of Computational Legal systems failing are greater than if they were merely
software and hardware. If the system employs machine-learning, it must take
note of the very specific dangers which this brings, of which data poisoning is
the classic example. Computational law must also be explicitly legislated for,
which we show is not the case currently in the EU, and this is also true for
the cybersecurity aspects that will be relevant to it. But there is great hope
in EU's proposed AI Act, which makes an important attempt at taking the
specific problems which Computational Law bring into the legal sphere. Our
recommendations for Computational Law and Cybersecurity are: Accommodation of
threats, adequate use, and that humans remain in the centre of their
deployment.
- Abstract(参考訳): 計算法則は、長い間予測されてきた社会における役割を担い始めている。
ユーザーを支援する自動意思決定とシステムは現在、様々な管轄区域で使用されているが、この成熟によって、ある種の注意が必要である。
計算法則は、それを可能にするプラットフォーム上に存在し、この場合デジタルシステムでは、同じ欠陥を継承することを意味する。
サイバーセキュリティはこれらの潜在的な弱点に対処する。
本稿では,既知の課題を概観し,設計から物理領域まで,さまざまなレベルで議論する。
また、機械学習特有の敵問題についても検討する。
また、計算法及び現行法及び今後の法律についても、一定の検討を行う。
最後に,計算法則がグローバルに機能するためには,安全性とセキュリティ工学の考え方に従う3つの推奨事項を提案する。
示されたように、計算法則は、他の種類のソフトウェアやコンピュータシステムと同じリスクに直面するだけでなく、内部の故障が金銭的・物理的損害や不正を引き起こす可能性があると真剣に考える必要がある。
計算法体系の失敗の結果は、単にソフトウェアとハードウェアである場合よりも大きい。
システムが機械学習を使用している場合は、それがもたらした非常に特定の危険、すなわちデータ中毒が古典的な例であることに注意しなければならない。
計算法則も明確に合法化されなければならないが、これは現在euでは当てはまらないことを示しており、それに関連するサイバーセキュリティの側面にも当てはまる。
しかし、euが提案したai法には大きな希望があり、これは計算法が法的な領域にもたらした特定の問題を取り込もうとする重要な試みである。
コンピュータ法とサイバーセキュリティの推奨事項は次のようなものだ。 脅威の調整、適切な使用、そして人間が配置の中心に残ること。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Assessing the Benefits and Risks of Quantum Computers [0.7224497621488283]
量子コンピュータの潜在的な用途とリスクについて、現在知られていることをレビューする。
新しい近似手法とビジネス関連量子応用の商業的探索という2つの大規模トレンドを特定した。
我々は、量子コンピュータが経済的に重要でない計算を実行できると信じていると結論付けている。
論文 参考訳(メタデータ) (2024-01-29T17:21:31Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Imposing Regulation on Advanced Algorithms [0.0]
本書は、行政上の決定と司法上の判決において、普遍的に適用可能なパターンについて考察している。
先進的なアルゴリズムに対する国家的かつ事実上の超国家的規制機関の役割と重要性を調査する。
ENISAは、ネットワークと情報セキュリティに焦点を当てたEU機関であり、欧州の高度なアルゴリズム規制機関の興味深い候補だと考えている。
論文 参考訳(メタデータ) (2020-05-16T20:26:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。