論文の概要: Taking Training Seriously: Human Guidance and Management-Based
Regulation of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2402.08466v1
- Date: Tue, 13 Feb 2024 13:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:17:42.992917
- Title: Taking Training Seriously: Human Guidance and Management-Based
Regulation of Artificial Intelligence
- Title(参考訳): 真剣な訓練の実践 : 人工知能の人的指導と管理に基づく規制
- Authors: Cary Coglianese and Colton R. Crum
- Abstract要約: 我々は、AIを管理する新たなマネジメントベースの規制フレームワークと、トレーニング中の人間の監視の必要性との関係について論じる。
規制当局に最も関心を抱くようなAIの高額なユースケースは、データのみのトレーニングよりも、人間の指導によるトレーニングに頼るべきだ、と私たちは主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fervent calls for more robust governance of the harms associated with
artificial intelligence (AI) are leading to the adoption around the world of
what regulatory scholars have called a management-based approach to regulation.
Recent initiatives in the United States and Europe, as well as the adoption of
major self-regulatory standards by the International Organization for
Standardization, share in common a core management-based paradigm. These
management-based initiatives seek to motivate an increase in human oversight of
how AI tools are trained and developed. Refinements and systematization of
human-guided training techniques will thus be needed to fit within this
emerging era of management-based regulatory paradigm. If taken seriously,
human-guided training can alleviate some of the technical and ethical pressures
on AI, boosting AI performance with human intuition as well as better
addressing the needs for fairness and effective explainability. In this paper,
we discuss the connection between the emerging management-based regulatory
frameworks governing AI and the need for human oversight during training. We
broadly cover some of the technical components involved in human-guided
training and then argue that the kinds of high-stakes use cases for AI that
appear of most concern to regulators should lean more on human-guided training
than on data-only training. We hope to foster a discussion between legal
scholars and computer scientists involving how to govern a domain of technology
that is vast, heterogenous, and dynamic in its applications and risks.
- Abstract(参考訳): 人工知能(AI)に関連する害のより堅牢なガバナンスを求めるFerventは、規制学者が規制に対する管理ベースのアプローチと呼ぶものの世界的普及につながっている。
近年の米国と欧州におけるイニシアチブと、国際標準化機構による主要な自己規制標準の採用は、共通してコアマネジメントベースのパラダイムを共有している。
これらのマネジメントベースのイニシアチブは、AIツールのトレーニングと開発に関する人間の監視の増大を動機付けようとしている。
したがって、人間誘導訓練技術の洗練と体系化は、この新たなマネジメントベースの規制パラダイムの時代に適合するために必要となる。
真剣に考えると、人間の指導によるトレーニングはAIの技術的なプレッシャーや倫理的なプレッシャーを和らげ、人間の直感によってAIのパフォーマンスを高め、公正性と効果的な説明可能性の必要性に対処する。
本稿では、AIを統括する新たなマネジメントベースの規制フレームワークと、トレーニング中の人間の監視の必要性との関係について論じる。
そして、規制当局に最も関心を抱くAIの高度なユースケースの種類は、データのみのトレーニングよりも、人間の指導によるトレーニングにもっと頼るべきである、と論じる。
我々は法学者とコンピュータ科学者の間で、その応用やリスクにおいて広大で異種でダイナミックな技術領域をどのように統治するかに関する議論を促進することを望んでいる。
関連論文リスト
- The European Commitment to Human-Centered Technology: The Integral Role
of HCI in the EU AI Act's Success [2.95015454112751]
EUはAI法を制定し、AIベースのシステムの市場アクセスを規制している。
この法律は、透明性、説明可能性、AIシステムを理解し制御する人間の能力に関する規制に焦点を当てている。
EUは、人間中心のAIシステムに対する民主的な要求を発行し、それによって、AI開発における人間中心のイノベーションのための学際的な研究課題を発行する。
論文 参考訳(メタデータ) (2024-02-22T17:35:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing AI Risks in an Era of Rapid Progress [147.61764296776164]
我々は、大規模社会被害と悪用、および自律型AIシステムに対する人間の制御の不可逆的喪失について検討する。
迅速かつ継続的なAIの進歩を踏まえ、我々はAI研究開発とガバナンスの緊急優先事項を提案する。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Meaningful human control over AI systems: beyond talking the talk [8.351027101823705]
私たちは、AIベースのシステムが有意義な人間の制御下にある必要がある4つの特性を特定します。
第一に、人間とAIアルゴリズムが相互作用するシステムは、道徳的にロードされた状況の明確に定義された領域を持つべきである。
第2に、システム内の人間とAIエージェントは、適切かつ相互に互換性のある表現を持つべきである。
第三に、人間に帰属する責任は、その人のシステムを支配する能力と権限に相応すべきである。
論文 参考訳(メタデータ) (2021-11-25T11:05:37Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。