論文の概要: Pitfalls of Evidence-Based AI Policy
- arxiv url: http://arxiv.org/abs/2502.09618v3
- Date: Mon, 24 Feb 2025 20:46:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:19:19.986831
- Title: Pitfalls of Evidence-Based AI Policy
- Title(参考訳): 証拠に基づくAI政策の落とし穴
- Authors: Stephen Casper, David Krueger, Dylan Hadfield-Menell,
- Abstract要約: 目的がエビデンスベースのAIポリシーであるなら、第一の規制目標は、AIリスクを特定し、研究し、検討するプロセスを積極的に促進することである、と我々は主張する。
これを促進するために、ブラジル、カナダ、中国、EU、韓国、英国、米国がそれぞれ、さらなる証拠調査政策を採用する実質的な機会を持っていることを示すための15の規制目標について論じる。
- 参考スコア(独自算出の注目度): 13.370321579091387
- License:
- Abstract: Nations across the world are working to govern AI. However, from a technical perspective, there is uncertainty and disagreement on the best way to do this. Meanwhile, recent debates over AI regulation have led to calls for "evidence-based AI policy" which emphasize holding regulatory action to a high evidentiary standard. Evidence is of irreplaceable value to policymaking. However, holding regulatory action to too high an evidentiary standard can lead to systematic neglect of certain risks. In historical policy debates (e.g., over tobacco ca. 1965 and fossil fuels ca. 1985) "evidence-based policy" rhetoric is also a well-precedented strategy to downplay the urgency of action, delay regulation, and protect industry interests. Here, we argue that if the goal is evidence-based AI policy, the first regulatory objective must be to actively facilitate the process of identifying, studying, and deliberating about AI risks. We discuss a set of 15 regulatory goals to facilitate this and show that Brazil, Canada, China, the EU, South Korea, the UK, and the USA all have substantial opportunities to adopt further evidence-seeking policies.
- Abstract(参考訳): 世界中の国々がAIの管理に取り組んでいます。
しかし、技術的な見地からすると、これを行う最善の方法には不確実性と不一致がある。
一方、近年のAI規制に関する議論は、「証拠に基づくAIポリシー」の要求に繋がった。
証拠は政策立案には相応の価値がある。
しかし、規制措置を過度に高い基準に維持することは、特定のリスクを体系的に無視する可能性がある。
歴史的政策論争(例えば、1965年タバコと1985年化石燃料)において、レトリックは、行動の緊急性、規制の遅れ、産業の利益を守るための、先例のない戦略である。
ここでは、目的がエビデンスベースのAIポリシーであるなら、第一の規制目標は、AIリスクを特定し、研究し、検討するプロセスを積極的に促進することである、と論じる。
これを促進するために、ブラジル、カナダ、中国、EU、韓国、英国、米国がそれぞれ、さらなる証拠調査政策を採用する実質的な機会を持っていることを示すための15の規制目標について論じる。
関連論文リスト
- How Do AI Companies "Fine-Tune" Policy? Examining Regulatory Capture in AI Governance [0.7252636622264104]
アメリカ合衆国の産業俳優は、汎用人工知能(AI)システムの規制に広範囲に影響を及ぼしてきた。
AI開発者とデプロイ担当者によるAIポリシーの取得は、汎用AIシステムの安全性、公正性、便益性、透明性、革新を保証するような規制上の目標を妨げうる。
専門家は、主に、AI規制の欠如、弱い規制、あるいは他者よりも特定の政策目標を過度に強調する規制の欠如につながる捕獲に関心を持っていた。
論文 参考訳(メタデータ) (2024-10-16T21:06:54Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Assessing the State of AI Policy [0.5156484100374057]
この研究は、国際、米国、市、および連邦レベルでのAI法と指令の概要を提供する。
また、関連するビジネス標準や技術社会のイニシアチブも見直している。
論文 参考訳(メタデータ) (2024-07-31T16:09:25Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - False Sense of Security in Explainable Artificial Intelligence (XAI) [3.298597939573779]
我々は、AI規制と現在の市場条件が効果的なAIガバナンスと安全性を脅かすと主張している。
政府は明確な立法と政策ステートメントを通じて説明可能性の問題に明示的に対処しない限り、AIガバナンスのリスクは空虚な「ボックス・ティック」のエクササイズになる。
論文 参考訳(メタデータ) (2024-05-06T20:02:07Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Quantitative study about the estimated impact of the AI Act [0.0]
我々は2021年4月に公表されたAI法の最初の草案に適用される体系的なアプローチを提案する。
我々は、ドイツのLernende SystemeプラットフォームがリストしているAI製品とプロジェクトのリストを、いくつかのイテレーションでコンパイルしました。
その結果、AI法によって規制されると見なされるAIシステムの約30%のみが、残りは低リスクに分類されることがわかった。
論文 参考訳(メタデータ) (2023-03-29T06:23:16Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。