論文の概要: From Turing to Tomorrow: The UK's Approach to AI Regulation
- arxiv url: http://arxiv.org/abs/2507.03050v1
- Date: Thu, 03 Jul 2025 10:54:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.560492
- Title: From Turing to Tomorrow: The UK's Approach to AI Regulation
- Title(参考訳): チューリングから明日:英国のAI規制へのアプローチ
- Authors: Oliver Ritchie, Markus Anderljung, Tom Rachman,
- Abstract要約: 我々は著作権、差別、AIエージェントに関する最新の法的枠組みについて論じている。
英国がAIの規制を正しく取得すれば、民主社会がAIの利益を利用してリスクを管理しながらどのように活用できるかを実証できるかもしれない。
- 参考スコア(独自算出の注目度): 0.8339209730515343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The UK has pursued a distinctive path in AI regulation: less cautious than the EU but more willing to address risks than the US, and has emerged as a global leader in coordinating AI safety efforts. Impressive developments from companies like London-based DeepMind began to spark concerns in the UK about catastrophic risks from around 2012, although regulatory discussion at the time focussed on bias and discrimination. By 2022, these discussions had evolved into a "pro-innovation" strategy, in which the government directed existing regulators to take a light-touch approach, governing AI at point of use, but avoided regulating the technology or infrastructure directly. ChatGPT arrived in late 2022, galvanising concerns that this approach may be insufficient. The UK responded by establishing an AI Safety Institute to monitor risks and hosting the first international AI Safety Summit in 2023, but - unlike the EU - refrained from regulating frontier AI development in addition to its use. A new government was elected in 2024 which promised to address this gap, but at the time of writing is yet to do so. What should the UK do next? The government faces competing objectives: harnessing AI for economic growth and better public services while mitigating risk. In light of these, we propose establishing a flexible, principles-based regulator to oversee the most advanced AI development, defensive measures against risks from AI-enabled biological design tools, and argue that more technical work is needed to understand how to respond to AI-generated misinformation. We argue for updated legal frameworks on copyright, discrimination, and AI agents, and that regulators will have a limited but important role if AI substantially disrupts labour markets. If the UK gets AI regulation right, it could demonstrate how democratic societies can harness AI's benefits while managing its risks.
- Abstract(参考訳): 英国は、AI規制における明確な道のりを追求している。EUよりも慎重ではないが、米国よりもリスクに対処する意思が強く、AI安全対策のコーディネートにおける世界的リーダーとして浮上している。
ロンドンに本拠を置くDeepMindのような企業による印象的な開発は、2012年ごろから英国で破滅的なリスクを懸念するようになった。
2022年までに、これらの議論は「先進的な」戦略へと発展し、政府は既存の規制当局にライトタッチのアプローチでAIを運用するよう命じたが、技術やインフラを直接規制することを避けた。
2022年末にChatGPTが到着し、このアプローチが不十分であるのではないかという懸念が高まった。
イギリスはリスクを監視し、2023年に初の国際AI安全サミットを開催するAI Safety Instituteを設立したが、EUとは異なり、その使用に加えてフロンティアAI開発を規制することを禁じた。
2024年に新政権が選出され、このギャップに対処することを約束したが、執筆時点ではまだそうしていない。
イギリスは次に何をすべきか。
政府は、AIを経済成長に活用し、リスクを軽減しながら公共サービスを改善するという、競合する目標に直面している。
これらを踏まえて、最も先進的なAI開発を監督するためのフレキシブルで原則に基づく規制、AI対応の生物学的デザインツールのリスクに対する防御措置、そしてAI生成の誤情報にどう対応すべきかを理解するためには、より技術的な作業が必要である、と論じる。
我々は、著作権、差別、AIエージェントに関する最新の法的枠組みについて論じており、AIが労働市場を著しく破壊すれば、規制機関は限定的だが重要な役割を果たすだろう。
英国がAI規制を正しく取得すれば、民主社会がAIの利益をいかに活用し、リスクを管理しているかを実証することができる。
関連論文リスト
- Public Opinion and The Rise of Digital Minds: Perceived Risk, Trust, and Regulation Support [4.982210700018631]
本研究では,機関やAI技術に対する公的な信頼と,認識されるリスク,AI規制の形式的嗜好について検討する。
政府への信頼が高い人は規制を支持するが、AI企業やAI技術への信頼が高い人は規制を支持する傾向が低い。
論文 参考訳(メタデータ) (2025-04-30T17:56:23Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - AI Procurement Checklists: Revisiting Implementation in the Age of AI Governance [18.290959557311552]
AIの公共セクターの利用はここ10年で増加傾向にあるが、最近になって文化の世俗主義に参入する試みが始まっている。
分かりやすいが、政府におけるAIシステムの倫理的かつ効果的な展開を促進することは、非常にありふれた仕事だ。
論文 参考訳(メタデータ) (2024-04-23T01:45:38Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Taking control: Policies to address extinction risks from AI [0.0]
AI企業からの自発的なコミットメントは不適切で不十分な反応である、と私たちは主張する。
先進的なAIの脅威に有意義に対処する3つの政策提案について述べる。
論文 参考訳(メタデータ) (2023-10-31T15:53:14Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。