論文の概要: Generative AI Needs Adaptive Governance
- arxiv url: http://arxiv.org/abs/2406.04554v1
- Date: Thu, 6 Jun 2024 23:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 17:47:54.335847
- Title: Generative AI Needs Adaptive Governance
- Title(参考訳): ジェネレーティブAIは適応的なガバナンスを必要とする
- Authors: Anka Reuel, Trond Arne Undheim,
- Abstract要約: ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Because of the speed of its development, broad scope of application, and its ability to augment human performance, generative AI challenges the very notions of governance, trust, and human agency. The technology's capacity to mimic human knowledge work, feedback loops including significant uptick in users, research, investor, policy, and media attention, data and compute resources, all lead to rapidly increasing capabilities. For those reasons, adaptive governance, where AI governance and AI co-evolve, is essential for governing generative AI. In sharp contrast to traditional governance's regulatory regimes that are based on a mix of rigid one-and-done provisions for disclosure, registration and risk management, which in the case of AI carry the potential for regulatory misalignment, this paper argues that generative AI calls for adaptive governance. We define adaptive governance in the context of AI and outline an adaptive AI governance framework. We outline actors, roles, as well as both shared and actors-specific policy activities. We further provide examples of how the framework could be operationalized in practice. We then explain that the adaptive AI governance stance is not without its risks and limitations, such as insufficient oversight, insufficient depth, regulatory uncertainty, and regulatory capture, and provide potential approaches to fix these shortcomings.
- Abstract(参考訳): 開発速度、幅広い適用範囲、人間のパフォーマンスを向上する能力のため、ジェネレーティブAIはガバナンス、信頼、ヒューマンエージェンシーという概念に挑戦する。
人間の知識労働を模倣する技術、ユーザー、研究、投資家、政策、メディアの注意、データと計算資源の大幅な増加を含むフィードバックループは、いずれも急速に増加する能力に繋がる。
これらの理由から、AIガバナンスとAIが共進化するアダプティブガバナンスは、生成AIを管理する上で不可欠である。
従来のガバナンスの規制体制とは対照的に、情報開示、登録、リスク管理の厳格な規定が混在している。
適応的なガバナンスをAIの文脈で定義し、適応的なAIガバナンスフレームワークの概要を述べる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
さらに、このフレームワークを実際に運用する方法の例を示します。
次に、適応的なAIガバナンスのスタンスは、監視の不十分、深さの不十分、規制の不確実性、規制のキャプチャといったリスクや制限を欠いているわけではなく、これらの欠点を修正するための潜在的なアプローチを提供する、と説明する。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Taking Training Seriously: Human Guidance and Management-Based Regulation of Artificial Intelligence [0.0]
我々は、AIを管理する新たなマネジメントベースの規制フレームワークと、トレーニング中の人間の監視の必要性との関係について論じる。
規制当局に最も関心を抱くようなAIの高額なユースケースは、データのみのトレーニングよりも、人間の指導によるトレーニングに頼るべきだ、と私たちは主張する。
論文 参考訳(メタデータ) (2024-02-13T13:48:54Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A multilevel framework for AI governance [6.230751621285321]
政府、企業、市民が関与する多段階的なガバナンスアプローチを提案する。
ガバナンスのレベルとAIの信頼の次元が組み合わさって、ユーザエクスペリエンスをさらに強化し、AIに関連する公開ポリシーを通知するために使用できる実践的な洞察を提供する。
論文 参考訳(メタデータ) (2023-07-04T03:59:16Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。