論文の概要: Prioritizing Policies for Furthering Responsible Artificial Intelligence
in the United States
- arxiv url: http://arxiv.org/abs/2212.00740v1
- Date: Wed, 30 Nov 2022 18:45:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 16:58:21.304906
- Title: Prioritizing Policies for Furthering Responsible Artificial Intelligence
in the United States
- Title(参考訳): 米国における責任ある人工知能の優先政策
- Authors: Emily Hadley
- Abstract要約: リソースが限られているため、すべてのポリシーが平等に優先順位付けされるとは限らない。
我々は、米国の政府機関や企業が、事前配備の監査と評価の開発を高度に優先順位付けすることを推奨する。
我々は、米国の政府機関や専門家団体が、責任あるAI研究を支援する政策を高度に優先順位付けすべきだと提案する。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several policy options exist, or have been proposed, to further responsible
artificial intelligence (AI) development and deployment. Institutions,
including U.S. government agencies, states, professional societies, and private
and public sector businesses, are well positioned to implement these policies.
However, given limited resources, not all policies can or should be equally
prioritized. We define and review nine suggested policies for furthering
responsible AI, rank each policy on potential use and impact, and recommend
prioritization relative to each institution type. We find that pre-deployment
audits and assessments and post-deployment accountability are likely to have
the highest impact but also the highest barriers to adoption. We recommend that
U.S. government agencies and companies highly prioritize development of
pre-deployment audits and assessments, while the U.S. national legislature
should highly prioritize post-deployment accountability. We suggest that U.S.
government agencies and professional societies should highly prioritize
policies that support responsible AI research and that states should highly
prioritize support of responsible AI education. We propose that companies can
highly prioritize involving community stakeholders in development efforts and
supporting diversity in AI development. We advise lower levels of
prioritization across institutions for AI ethics statements and databases of AI
technologies or incidents. We recognize that no one policy will lead to
responsible AI and instead advocate for strategic policy implementation across
institutions.
- Abstract(参考訳): 人工知能(AI)のさらなる開発と展開のために、いくつかの政策オプションが存在するか、提案されている。
アメリカ合衆国政府機関、州、職業社会、民間および公共事業を含む機関は、これらの政策を実施するのに適している。
しかし、リソースが限られているため、すべてのポリシーが平等に優先順位を付けることはできない。
我々は、責任あるAIを強化するための9つの提案されたポリシーを定義し、レビューし、潜在的な使用と影響について各ポリシーをランク付けし、各機関タイプに対する優先順位付けを推奨する。
デプロイ前の監査や評価、デプロイ後の説明責任は、最も影響が大きいが、採用の障壁も高いことが分かっています。
我々は、米国の政府機関や企業は、デプロイ前の監査や評価の開発を高度に優先し、米国議会はデプロイ後の説明責任を高度に優先すべきだと推奨する。
我々は、米国の政府機関や専門家団体が、責任あるAI研究を支援する政策を高度に優先順位付けし、国家が責任あるAI教育のサポートを高度に優先順位付けすべきだと提案する。
我々は,開発作業におけるコミュニティ利害関係者の関与や,AI開発における多様性を高い優先度で支援することを提案する。
我々は、AI倫理ステートメントやAI技術やインシデントに関するデータベースの機関間での優先順位付けのレベルを低くすることを推奨する。
我々は、ひとつの政策がAIの責任を負うことはなく、代わりに機関間の戦略的政策実装を提唱する。
関連論文リスト
- How Do AI Companies "Fine-Tune" Policy? Examining Regulatory Capture in AI Governance [0.7252636622264104]
アメリカ合衆国の産業俳優は、汎用人工知能(AI)システムの規制に広範囲に影響を及ぼしてきた。
AI開発者とデプロイ担当者によるAIポリシーの取得は、汎用AIシステムの安全性、公正性、便益性、透明性、革新を保証するような規制上の目標を妨げうる。
専門家は、主に、AI規制の欠如、弱い規制、あるいは他者よりも特定の政策目標を過度に強調する規制の欠如につながる捕獲に関心を持っていた。
論文 参考訳(メタデータ) (2024-10-16T21:06:54Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Strategic AI Governance: Insights from Leading Nations [0.0]
人工知能(AI)は、さまざまな分野に革命をもたらす可能性があるが、その採用は、データプライバシ、セキュリティ、AI能力の理解に関する懸念によって妨げられることが多い。
本稿では、先進国のAI戦略をレビューすることで、AIガバナンスのアプローチ、戦略的テーマ、AI導入に向けたイネーブラーと課題を合成する。
論文 参考訳(メタデータ) (2024-09-16T06:00:42Z) - Assessing the State of AI Policy [0.5156484100374057]
この研究は、国際、米国、市、および連邦レベルでのAI法と指令の概要を提供する。
また、関連するビジネス標準や技術社会のイニシアチブも見直している。
論文 参考訳(メタデータ) (2024-07-31T16:09:25Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。