論文の概要: Insuring Uninsurable Risks from AI: The State as Insurer of Last Resort
- arxiv url: http://arxiv.org/abs/2409.06672v1
- Date: Tue, 10 Sep 2024 17:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 16:39:07.900739
- Title: Insuring Uninsurable Risks from AI: The State as Insurer of Last Resort
- Title(参考訳): AIによる不確実なリスクの保険:最後のリゾートの保険会社としての国家
- Authors: Cristian Trout,
- Abstract要約: プログラムは、社会的に最適なケアレベルを誘導するために、リスク価格の償還手数料を使用する。
リスク見積は、インセンティブ付き開発者を含む専門家の調査によって決定される。
収集した費用は、開発者が必要とする安全研究の資金に役立てることが推奨されています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many experts believe that AI systems will sooner or later pose uninsurable risks, including existential risks. This creates an extreme judgment-proof problem: few if any parties can be held accountable ex post in the event of such a catastrophe. This paper proposes a novel solution: a government-provided, mandatory indemnification program for AI developers. The program uses risk-priced indemnity fees to induce socially optimal levels of care. Risk-estimates are determined by surveying experts, including indemnified developers. The Bayesian Truth Serum mechanism is employed to incent honest and effortful responses. Compared to alternatives, this approach arguably better leverages all private information, and provides a clearer signal to indemnified developers regarding what risks they must mitigate to lower their fees. It's recommended that collected fees be used to help fund the safety research developers need, employing a fund matching mechanism (Quadratic Financing) to induce an optimal supply of this public good. Under Quadratic Financing, safety research projects would compete for private contributions from developers, signaling how much each is to be supplemented with public funds.
- Abstract(参考訳): 多くの専門家は、AIシステムは遅かれ早かれ、現実的なリスクを含む不確実なリスクを生じさせると考えている。
このような大惨事が発生した場合、いかなる当事者も説明責任のある元職に就けることはほとんどない。
本稿は,AI開発者を対象とした政府主導の強制刑罰プログラムである,新しいソリューションを提案する。
このプログラムは、社会的に最適なケアレベルを誘導するために、リスク価格の償還手数料を使用する。
リスク見積は、インセンティブ付き開発者を含む専門家の調査によって決定される。
ベイズ真理サーム機構は、正直で精力的な反応を刺激するために用いられる。
代替手段と比較して、このアプローチは間違いなくすべてのプライベート情報をうまく活用し、報酬を下げるために緩和すべきリスクについて、開発者に対してより明確なシグナルを提供する。
この公共財の最適供給を誘導するために、資金マッチング機構(Quadratic Financing)を採用することにより、開発者が必要とする安全研究資金の収集手数料の使用が推奨されている。
Quadratic Financingの下では、安全研究プロジェクトは開発者からのプライベートなコントリビューションを競い合う。
関連論文リスト
- Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - SafeAR: Safe Algorithmic Recourse by Risk-Aware Policies [2.291948092032746]
本稿では,コストの変動を考慮したレコメンデーションポリシーの計算手法を提案する。
我々は,既存のデシダラタが高コストのリスクを捕捉できないことを示す。
論文 参考訳(メタデータ) (2023-08-23T18:12:11Z) - Eliciting Risk Aversion with Inverse Reinforcement Learning via
Interactive Questioning [0.0]
本稿では,対話型質問を用いたエージェントのリスク回避のための新しいフレームワークを提案する。
エージェントのリスク回避は、質問の数が無限大になる傾向があり、質問がランダムに設計されるため、特定できることを示す。
我々のフレームワークはロボアドバイスに重要な応用があり、エージェントのリスク嗜好を特定するための新しいアプローチを提供する。
論文 参考訳(メタデータ) (2023-08-16T15:17:57Z) - Probably Anytime-Safe Stochastic Combinatorial Semi-Bandits [81.60136088841948]
本稿では,時間軸における後悔を最小限に抑えるアルゴリズムを提案する。
提案アルゴリズムは,レコメンデーションシステムや交通機関などの分野に適用可能である。
論文 参考訳(メタデータ) (2023-01-31T03:49:00Z) - Incentive-Aware Recommender Systems in Two-Sided Markets [49.692453629365204]
最適性能を達成しつつエージェントのインセンティブと整合する新しいレコメンデータシステムを提案する。
我々のフレームワークは、このインセンティブを意識したシステムを、両側市場におけるマルチエージェントバンディット問題としてモデル化する。
どちらのアルゴリズムも、エージェントが過剰な露出から保護する、ポストフェアネス基準を満たす。
論文 参考訳(メタデータ) (2022-11-23T22:20:12Z) - A Survey of Risk-Aware Multi-Armed Bandits [84.67376599822569]
我々は、様々な利害リスク対策をレビューし、その特性についてコメントする。
我々は,探索と探索のトレードオフが現れる,後悔の最小化設定のためのアルゴリズムを検討する。
今後の研究の課題と肥大化についてコメントし、締めくくりに締めくくります。
論文 参考訳(メタデータ) (2022-05-12T02:20:34Z) - Optimal Best-Arm Identification Methods for Tail-Risk Measures [9.128264779870538]
条件付きバリュー・アット・リスク(CVaR)とバリュー・アット・リスク(VaR)は金融や保険業界で人気のあるテール・アット・リスク対策である。
CVaR, VaR, CVaRの最小値の平均は, CVaR, VaR, CVaRの最小値の平均である。
論文 参考訳(メタデータ) (2020-08-17T20:23:24Z) - Hierarchical Adaptive Contextual Bandits for Resource Constraint based
Recommendation [49.69139684065241]
コンテキスト多重武装バンディット(MAB)は、様々な問題において最先端のパフォーマンスを達成する。
本稿では,階層型適応型文脈帯域幅法(HATCH)を提案する。
論文 参考訳(メタデータ) (2020-04-02T17:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。