論文の概要: Exploring the Impact of Rewards on Developers' Proactive AI Accountability Behavior
- arxiv url: http://arxiv.org/abs/2411.18393v1
- Date: Wed, 27 Nov 2024 14:34:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:27:43.854322
- Title: Exploring the Impact of Rewards on Developers' Proactive AI Accountability Behavior
- Title(参考訳): ディベロッパの積極的AIアカウンタビリティ行動に対するリワードの影響を探る
- Authors: L. H. Nguyen, S. Lins, G. Du, A. Sunyaev,
- Abstract要約: 我々は、報酬と制裁がAI開発者に与える影響を明らかにするために、自己決定理論に基づく理論モデルを開発する。
各種ドメインの関連研究を調査した結果,典型的な制裁措置とバグ報奨金は潜在的報酬メカニズムとして同定された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The rapid integration of Artificial Intelligence (AI)-based systems offers benefits for various domains of the economy and society but simultaneously raises concerns due to emerging scandals. These scandals have led to the increasing importance of AI accountability to ensure that actors provide justification and victims receive compensation. However, AI accountability has a negative connotation due to its emphasis on penalizing sanctions, resulting in reactive approaches to emerging concerns. To counteract the prevalent negative view and offer a proactive approach to facilitate the AI accountability behavior of developers, we explore rewards as an alternative mechanism to sanctions. We develop a theoretical model grounded in Self-Determination Theory to uncover the potential impact of rewards and sanctions on AI developers. We further identify typical sanctions and bug bounties as potential reward mechanisms by surveying related research from various domains, including cybersecurity.
- Abstract(参考訳): 人工知能(AI)ベースのシステムの迅速な統合は、経済と社会の様々な領域に利益をもたらすが、同時に、スキャンダルの出現による懸念を提起する。
これらのスキャンダルは、俳優が正当化を提供し、被害者が補償を受けることを保証するために、AI説明責任の重要性が増している。
しかし、AI説明責任は制裁の処罰に重点を置いているため否定的な意味を持ち、新興の懸念に対するリアクティブなアプローチをもたらす。
開発者のAI説明責任行動を促進するために、一般的なネガティブな見解に対抗し、積極的なアプローチを提供するために、制裁の代替メカニズムとして報酬を検討する。
我々は、報酬と制裁がAI開発者に与える影響を明らかにするために、自己決定理論に基づく理論モデルを開発する。
我々はまた、サイバーセキュリティを含む様々な分野の関連研究を調査することで、典型的な制裁やバグ報奨金を潜在的報酬メカニズムとして特定する。
関連論文リスト
- Predicting the Impact of Generative AI Using an Agent-Based Model [0.0]
生成人工知能(AI)システムは、人間の創造性を模倣するコンテンツを自律的に生成することで産業を変革した。
本稿ではエージェント・ベース・モデリング(ABM)を用いてこれらの意味を探索する。
ABMは個人、ビジネス、政府エージェントを統合し、教育、スキル獲得、AIの採用、規制対応などのダイナミクスをシミュレートする。
論文 参考訳(メタデータ) (2024-08-30T13:13:56Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Liability Insurance With an Example in AI-Powered E-diagnosis System [22.102728605081534]
我々はAIによるE-diagnosisシステムをAI責任保険の研究の例として用いている。
我々は、AI責任保険がコンプライアンス行動のインセンティブを与えるための規制機構として機能し、高品質なAIシステムの証明書として機能することを示した。
論文 参考訳(メタデータ) (2023-06-01T21:03:47Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。