論文の概要: Voluntary safety commitments provide an escape from over-regulation in
AI development
- arxiv url: http://arxiv.org/abs/2104.03741v1
- Date: Thu, 8 Apr 2021 12:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 19:39:02.177722
- Title: Voluntary safety commitments provide an escape from over-regulation in
AI development
- Title(参考訳): AI開発における過剰規制から逃れる自主的安全約束
- Authors: The Anh Han, Tom Lenaerts, Francisco C. Santos, and Luis Moniz Pereira
- Abstract要約: この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
- 参考スコア(独自算出の注目度): 8.131948859165432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the introduction of Artificial Intelligence (AI) and related
technologies in our daily lives, fear and anxiety about their misuse as well as
the hidden biases in their creation have led to a demand for regulation to
address such issues. Yet blindly regulating an innovation process that is not
well understood, may stifle this process and reduce benefits that society may
gain from the generated technology, even under the best intentions. In this
paper, starting from a baseline model that captures the fundamental dynamics of
a race for domain supremacy using AI technology, we demonstrate how socially
unwanted outcomes may be produced when sanctioning is applied unconditionally
to risk-taking, i.e. potentially unsafe, behaviours. As an alternative to
resolve the detrimental effect of over-regulation, we propose a voluntary
commitment approach wherein technologists have the freedom of choice between
independently pursuing their course of actions or establishing binding
agreements to act safely, with sanctioning of those that do not abide to what
they pledged. Overall, this work reveals for the first time how voluntary
commitments, with sanctions either by peers or an institution, leads to
socially beneficial outcomes in all scenarios envisageable in a short-term race
towards domain supremacy through AI technology. These results are directly
relevant for the design of governance and regulatory policies that aim to
ensure an ethical and responsible AI technology development process.
- Abstract(参考訳): 人工知能(AI)とその関連技術が私たちの日常生活に導入され、その悪用に対する恐れと不安、そしてその創造に隠された偏見が、このような問題に対処する規制の要求につながった。
しかし、よく理解されていないイノベーションプロセスを盲目的に調整することで、このプロセスを阻害し、最高の意図の下でも、生成された技術から社会が得る利益を減らすことができる。
本稿では,AI技術を用いたドメイン優越競争の基本的なダイナミクスを捉えるベースラインモデルから,リスクテイクに無条件に適用した場合に,社会的に望ましくない結果が生じることを実証する。
潜在的に安全でない行動です
過剰規制の有害な効果を解消するための代替手段として,技術者が自発的に行動の方針を追求するか,あるいは安全に行動するための拘束契約を確立するか,あるいは誓約に従わない者を許可するかを選択できる自発的コミットメントアプローチを提案する。
全体として、この研究は、仲間や機関による制裁による自発的なコミットメントが、AI技術を通じたドメイン優位性への短期的な競争において、すべてのシナリオにおいて社会的に有益な結果をもたらすことを初めて明らかにしている。
これらの結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係している。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。