論文の概要: Quantitative study about the estimated impact of the AI Act
- arxiv url: http://arxiv.org/abs/2304.06503v1
- Date: Wed, 29 Mar 2023 06:23:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 21:37:12.613538
- Title: Quantitative study about the estimated impact of the AI Act
- Title(参考訳): AI法における推定影響に関する定量的研究
- Authors: Marc P. Hauer and Tobias D Krafft and Dr. Andreas Sesing-Wagenpfeil
and Prof. Katharina Zweig
- Abstract要約: 我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the Proposal for a Regulation laying down harmonised rules on Artificial
Intelligence (AI Act) the European Union provides the first regulatory document
that applies to the entire complex of AI systems. While some fear that the
regulation leaves too much room for interpretation and thus bring little
benefit to society, others expect that the regulation is too restrictive and,
thus, blocks progress and innovation, as well as hinders the economic success
of companies within the EU. Without a systematic approach, it is difficult to
assess how it will actually impact the AI landscape. In this paper, we suggest
a systematic approach that we applied on the initial draft of the AI Act that
has been released in April 2021. We went through several iterations of
compiling the list of AI products and projects in and from Germany, which the
Lernende Systeme platform lists, and then classified them according to the AI
Act together with experts from the fields of computer science and law. Our
study shows a need for more concrete formulation, since for some provisions it
is often unclear whether they are applicable in a specific case or not. Apart
from that, it turns out that only about 30\% of the AI systems considered would
be regulated by the AI Act, the rest would be classified as low-risk. However,
as the database is not representative, the results only provide a first
assessment. The process presented can be applied to any collections, and also
repeated when regulations are about to change. This allows fears of over- or
under-regulation to be investigated before the regulations comes into effect.
- Abstract(参考訳): 人工知能(AI Act)の調和したルールを規定する規則の提案により、欧州連合はAIシステム全体に適用する最初の規制文書を提供する。
規制が解釈の余地が多すぎることを恐れ、社会にほとんど利益をもたらすことを恐れる者もいるが、規制があまりに制限的であり、したがって進歩と革新を妨げ、EU内の企業の経済的成功を妨げると期待する者もいる。
体系的なアプローチがなければ、それが実際にAIの状況に与える影響を評価するのは難しい。
本稿では,2021年4月に公布されたAI法の最初の草案に適用される体系的アプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストをコンパイルし、コンピュータ科学と法学の専門家とともにAI法に従って分類した。
本研究は,より具体的な定式化の必要性を示唆するものであり,いくつかの規定については,特定の場合に適用できるか否かが不明確であることが多い。
それとは別に、AI法によって規制されると見なされるAIシステムの約30%だけが、残りはリスクの低いものと分類されていることが判明した。
しかし、データベースは代表的ではないため、結果は最初の評価のみとなる。
提示されたプロセスはどのコレクションにも適用でき、規則が変更されるときも繰り返される。
これにより、規制が施行される前に過度または過度に規制される恐れを調査できる。
関連論文リスト
- How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - The European AI Liability Directives -- Critique of a Half-Hearted
Approach and Lessons for the Future [0.0]
欧州委員会は2022年9月に、欧州のAI責任に対するアプローチを概説する2つの提案を推進した。
後者は、影響を受けた人の個人的権利を一切含んでおらず、前者は、AI開発と展開に関する特定の実質的なルールを欠いている。
これらの行為は、AI規制におけるブリュッセル効果を誘発する可能性がある。
我々は、AI法における持続可能性影響評価と、債務制度における持続可能な設計欠陥を通じて、持続可能なAI規制を飛躍的に開始することを提案する。
論文 参考訳(メタデータ) (2022-11-25T09:08:11Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Demystifying the Draft EU Artificial Intelligence Act [5.787117733071415]
2021年4月、欧州委員会はAI法として知られる人工知能に関する規則を提案した。
我々は、この法律の概要と、その意味を分析し、現代のAI実践の研究から、過去40年間のEU製品安全体制の構造まで幅広い奨学金について考察する。
ドラフトAI法のいくつかの規定は、驚くべき法的意味を持つが、他の条項は、規定された目標を達成するのにほとんど効果がないかもしれない。
論文 参考訳(メタデータ) (2021-07-08T10:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。