論文の概要: Mediating Artificial Intelligence Developments through Negative and
Positive Incentives
- arxiv url: http://arxiv.org/abs/2010.00403v1
- Date: Thu, 1 Oct 2020 13:43:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 08:46:33.708047
- Title: Mediating Artificial Intelligence Developments through Negative and
Positive Incentives
- Title(参考訳): ネガティブインセンティブとポジティブインセンティブによる人工知能開発仲介
- Authors: The Anh Han, Luis Moniz Pereira, Tom Lenaerts, Francisco C. Santos
- Abstract要約: ポジティブな(リワード)インセンティブとネガティブな(罰)インセンティブが結果にどう影響するかを検討する。
いくつかのシナリオにおいて、安全対策に従う者に報酬を与えると、開発速度が向上し、安全な選択が保証されることが示されている。
- 参考スコア(独自算出の注目度): 5.0066859598912945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Artificial Intelligence (AI) is going through a period of great
expectations, introducing a certain level of anxiety in research, business and
also policy. This anxiety is further energised by an AI race narrative that
makes people believe they might be missing out. Whether real or not, a belief
in this narrative may be detrimental as some stake-holders will feel obliged to
cut corners on safety precautions, or ignore societal consequences just to
"win". Starting from a baseline model that describes a broad class of
technology races where winners draw a significant benefit compared to others
(such as AI advances, patent race, pharmaceutical technologies), we investigate
here how positive (rewards) and negative (punishments) incentives may
beneficially influence the outcomes. We uncover conditions in which punishment
is either capable of reducing the development speed of unsafe participants or
has the capacity to reduce innovation through over-regulation. Alternatively,
we show that, in several scenarios, rewarding those that follow safety measures
may increase the development speed while ensuring safe choices. Moreover, in
{the latter} regimes, rewards do not suffer from the issue of over-regulation
as is the case for punishment. Overall, our findings provide valuable insights
into the nature and kinds of regulatory actions most suitable to improve safety
compliance in the contexts of both smooth and sudden technological shifts.
- Abstract(参考訳): 人工知能(ai)の分野は、研究、ビジネス、そして政策において一定のレベルの不安をもたらし、大きな期待の期間を経ています。
この不安は、人々が行方不明になるかもしれないと信じさせるAI人種の物語によってさらに激化している。
現実であろうとなかろうが、この物語に対する信念は、一部の利害関係者は、安全対策のコーナーを切り詰めるか、「勝つ」ために社会的な結果を無視しなければならないと感じるため、有害であるかもしれない。
勝者が他のもの(aiアドバンス、パテントレース、製薬技術など)に比べて大きな利益を得られる幅広い技術種族を記述したベースラインモデルから始め、ここではポジティブ(後退)とネガティブ(利益)のインセンティブが結果にどのように影響するかを調査します。
我々は、罰が安全でない参加者の発達速度を減らしたり、過剰規制によってイノベーションを減らしたりできる条件を明らかにする。
また,いくつかのシナリオにおいて,安全対策に準じた報酬が,安全選択を保証しながら開発速度を増加させる可能性があることを示す。
さらに、後者の体制では、報酬は刑罰の場合のように過剰規制の問題に苦しむことはない。
本研究は,スムーズかつ急激な技術シフトの文脈において,安全コンプライアンスを改善するのに最も適した規制行動の性質と種類に関する貴重な知見を提供する。
関連論文リスト
- AI Safety: A Climb To Armageddon? [0.0]
本稿では,最適化,緩和,ホロリズムの3つの対応戦略について検討する。
この議論の驚くべき堅牢性は、AIの安全性に関するコア前提の再検討を迫られる。
論文 参考訳(メタデータ) (2024-05-30T08:41:54Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Absolutist AI [0.0]
絶対的な制約でAIシステムを訓練することは、多くのAI安全問題にかなりの進歩をもたらす可能性がある。
ミスアライメントの最悪の結果を避けるためのガードレールを提供する。
非常に価値のある結果を得るために、AIが大惨事を引き起こすのを防げるかもしれない。
論文 参考訳(メタデータ) (2023-07-19T03:40:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - AI Development Race Can Be Mediated on Heterogeneous Networks [8.131948859165432]
人種間の相互作用構造の違いが集団的選択や規制行動の要件をいかに変えられるかを検討する。
その結果, 相互関係や相互影響の点で強い多様性を示す場合, 均質な環境に存在する対立は著しく減少することが示唆された。
論文 参考訳(メタデータ) (2020-12-30T17:23:18Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - AI Research Considerations for Human Existential Safety (ARCHES) [6.40842967242078]
負の言葉で言えば、我々は人類が次の世紀のAI開発から直面する現実的なリスクを問う。
Emphprepotenceという,仮説AI技術の鍵となる性質
その後、既存の安全に対する潜在的な利益のために、現代の研究方向の集合が検討される。
論文 参考訳(メタデータ) (2020-05-30T02:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。