論文の概要: Trust AI Regulation? Discerning users are vital to build trust and effective AI regulation
- arxiv url: http://arxiv.org/abs/2403.09510v1
- Date: Thu, 14 Mar 2024 15:56:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 19:47:59.979946
- Title: Trust AI Regulation? Discerning users are vital to build trust and effective AI regulation
- Title(参考訳): AI規制を信頼する? 利用者を識別することは、信頼と効果的なAI規制を構築する上で不可欠である
- Authors: Zainab Alalawi, Paolo Bova, Theodor Cimpeanu, Alessandro Di Stefano, Manh Hong Duong, Elias Fernandez Domingos, The Anh Han, Marcus Krellner, Bianca Ogbo, Simon T. Powers, Filippo Zimmaro,
- Abstract要約: 我々は、信頼できるAIとユーザー信頼を生み出すためには、規制当局に効果的に規制するインセンティブが必要であることを示した。
これを実現するための2つのメカニズムの有効性を実証する。
次に,規制当局の有効性について,ユーザが信頼判断を強制できる代替ソリューションを検討する。
- 参考スコア(独自算出の注目度): 32.98110040460262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is general agreement that some form of regulation is necessary both for AI creators to be incentivised to develop trustworthy systems, and for users to actually trust those systems. But there is much debate about what form these regulations should take and how they should be implemented. Most work in this area has been qualitative, and has not been able to make formal predictions. Here, we propose that evolutionary game theory can be used to quantitatively model the dilemmas faced by users, AI creators, and regulators, and provide insights into the possible effects of different regulatory regimes. We show that creating trustworthy AI and user trust requires regulators to be incentivised to regulate effectively. We demonstrate the effectiveness of two mechanisms that can achieve this. The first is where governments can recognise and reward regulators that do a good job. In that case, if the AI system is not too risky for users then some level of trustworthy development and user trust evolves. We then consider an alternative solution, where users can condition their trust decision on the effectiveness of the regulators. This leads to effective regulation, and consequently the development of trustworthy AI and user trust, provided that the cost of implementing regulations is not too high. Our findings highlight the importance of considering the effect of different regulatory regimes from an evolutionary game theoretic perspective.
- Abstract(参考訳): AI作成者が信頼できるシステムを開発するためにインセンティブを与えられることや、ユーザが実際にこれらのシステムを信頼するためには、何らかの形態の規制が必要であるという一般的な合意がある。
しかし、これらの規則がどのような形を取るべきか、どのように実施されるべきかについては、多くの議論がある。
この分野のほとんどの研究は定性的であり、正式な予測を行うことができなかった。
ここでは、進化ゲーム理論を用いて、ユーザ、AI作成者、規制当局が直面するジレンマを定量的にモデル化し、異なる規制体制の影響についての洞察を提供する。
我々は、信頼できるAIとユーザー信頼を生み出すためには、規制を効果的に規制するインセンティブを必要とすることを示す。
これを実現するための2つのメカニズムの有効性を実証する。
ひとつは、政府が良い仕事をする規制当局を承認し、報奨する場です。
その場合、AIシステムがユーザにとってあまり危険でない場合、ある程度の信頼性の高い開発とユーザ信頼が進化します。
次に,規制当局の有効性について,ユーザが信頼判断を強制できる代替ソリューションを検討する。
これは効果的な規制につながり、結果として信頼できるAIとユーザ信頼の開発につながります。
本研究は,進化ゲーム理論の観点から,異なる規制体制の効果を考慮することの重要性を強調した。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Filling gaps in trustworthy development of AI [20.354549569362035]
AIシステムからの潜在的なリスクに対する認識の高まりは、これらのリスクに対処するための行動を引き起こしている。
しかし、原則はしばしば、信頼できるAI開発における「何」と「方法」の間にギャップを残します。
したがって、AI開発者が害を防ぎ、信頼を証明できる具体的な方法が緊急に必要である。
論文 参考訳(メタデータ) (2021-12-14T22:45:28Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。