論文の概要: Safe Transformative AI via a Windfall Clause
- arxiv url: http://arxiv.org/abs/2108.09404v1
- Date: Fri, 20 Aug 2021 23:59:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:34:54.206008
- Title: Safe Transformative AI via a Windfall Clause
- Title(参考訳): ウィンドフォールクロースによる安全なトランスフォーメーションAI
- Authors: Paolo Bova, Jonas Emanuel M\"uller, Benjamin Harack
- Abstract要約: 競争のモデルは、企業が安全になる前にトランスフォーメーション人工知能(TAI)システムを展開するという強力な競争圧力に直面していることを示している。
本稿では、開発者が最終的に非常に大きな利益のかなりの部分を良い原因に寄付することを約束するウィンドフォール・クロース(Windfall Clause)という、この問題に対する提案された解決策を探求する。
我々は、これらの課題を克服するWindfall Clauseを企業や政策立案者がどのように設計できるかを示すために、Windfall ClauseとTAIコンペティションのモデルを拡張します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Society could soon see transformative artificial intelligence (TAI). Models
of competition for TAI show firms face strong competitive pressure to deploy
TAI systems before they are safe. This paper explores a proposed solution to
this problem, a Windfall Clause, where developers commit to donating a
significant portion of any eventual extremely large profits to good causes.
However, a key challenge for a Windfall Clause is that firms must have reason
to join one. Firms must also believe these commitments are credible. We extend
a model of TAI competition with a Windfall Clause to show how firms and
policymakers can design a Windfall Clause which overcomes these challenges.
Encouragingly, firms benefit from joining a Windfall Clause under a wide range
of scenarios. We also find that firms join the Windfall Clause more often when
the competition is more dangerous. Even when firms learn each other's
capabilities, firms rarely wish to withdraw their support for the Windfall
Clause. These three findings strengthen the case for using a Windfall Clause to
promote the safe development of TAI.
- Abstract(参考訳): 社会はすぐにトランスフォーメーション人工知能(tai:transformative artificial intelligence)を見ることができた。
tai showの競争モデルは、安全になる前にtaiシステムを展開する強力な競争圧力にさらされている。
本稿では、開発者が最終的に非常に大きな利益のかなりの部分を良い原因に寄付することを約束するWindfall Clauseという、この問題に対する解決策を提案する。
しかし、Windfall Clauseにとって重要な課題は、企業が参加する理由がなければならないことだ。
企業はこれらのコミットメントが信頼できると信じなければならない。
我々は、これらの課題を克服するWindfall Clauseを企業や政策立案者がどのように設計できるかを示すために、Windfall ClauseとTAIコンペティションのモデルを拡張します。
企業は幅広いシナリオでWindfall Clauseに参加することで利益を得る。
また、競争がより危険な場合、企業はより頻繁にウィンドフォール条項に参加します。
企業が互いの能力を習得しても、企業がウィンドフォール・クロースへの支持を辞退することはめったにない。
これらの3つの知見は,TAIの安全開発を促進するためにウィンドフォール・クロースを用いたケースを強化するものである。
関連論文リスト
- The New Dynamics of Open Source: Relicensing, Forks, & Community Impact [0.0]
ベンダーは、人気のあるオープンソースプロジェクトをより制限的なライセンスに再ライセンスし、より多くの収益を生み出すことを期待している。
本研究は,フォークによるライセンス変更に基づく3つのケーススタディの組織関連データを比較した。
研究によると、これらの過激な出来事から生じるフォークは、当初のプロジェクトよりも組織的な多様性が増している。
論文 参考訳(メタデータ) (2024-11-07T14:21:45Z) - Crafting desirable climate trajectories with RL explored socio-environmental simulations [3.554161433683967]
統合アセスメントモデル(IAM)は、社会、経済、環境シミュレーションを組み合わせて、潜在的な政策効果を予測する。
従来の解決法を置き換えるために強化学習(RL)を用いた最近の予備研究は、不確実でノイズの多いシナリオにおける意思決定において有望な結果を示している。
我々は、様々な利害関係者や国家間の複雑な相互作用の相互作用をモデル化するための予備分析として、複数の対話的RLエージェントを導入することにより、この研究を拡大する。
論文 参考訳(メタデータ) (2024-10-09T13:21:50Z) - Liability and Insurance for Catastrophic Losses: the Nuclear Power Precedent and Lessons for AI [0.0]
本稿では、フロンティアAIモデルの開発者は、クリティカルAI発生(CAIO)による損害に対して、限定的で厳格で排他的な第三者責任を課すべきである、と論じる。
CAIO責任の強制保険は、開発者の判断力、勝者の呪いのダイナミクスを克服し、保険会社の準規制能力を活用するために推奨される。
論文 参考訳(メタデータ) (2024-09-10T17:41:31Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Mitigating Misleading Chain-of-Thought Reasoning with Selective Filtering [59.495717939664246]
大規模言語モデルは、複雑な問題を解くためにチェーン・オブ・ソート(CoT)推論技術を活用することで、顕著な能力を示した。
本稿では,選択フィルタリング推論(SelF-Reasoner)と呼ばれる新しい手法を提案する。
SelF-ReasonerはScienceQA、ECQA、LastLetterタスクに対して、微調整されたT5ベースラインを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-28T06:28:35Z) - The Journey to Trustworthy AI- Part 1: Pursuit of Pragmatic Frameworks [0.0]
本稿では,信頼に値する人工知能(TAI)とその様々な定義についてレビューする。
我々は、TAIの代わりにResponsibleやEthical AIといった用語を使うことに反対する。
代わりに、フェアネス、バイアス、リスク、セキュリティ、説明可能性、信頼性といった重要な属性や特性に対処するアプローチを提唱します。
論文 参考訳(メタデータ) (2024-03-19T08:27:04Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - Cooperation or Competition: Avoiding Player Domination for Multi-Target
Robustness via Adaptive Budgets [76.20705291443208]
我々は、敵攻撃を、異なるプレイヤーがパラメータ更新の合同方向で合意に達するために交渉する交渉ゲームであると見なしている。
我々は、プレイヤーの優位性を避けるために、異なる敵の予算を調整する新しいフレームワークを設計する。
標準ベンチマークの実験では、提案したフレームワークを既存のアプローチに適用することで、マルチターゲットロバスト性が大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-06-27T14:02:10Z) - Competing Bandits: The Perils of Exploration Under Competition [99.68537519404727]
オンラインプラットフォーム上での探索と競争の相互作用について検討する。
私たちは、スタークコンペティションが企業に対して、低福祉につながる「欲張り」バンディットアルゴリズムにコミットするよう促すことに気付きました。
競争を弱めるための2つのチャンネルについて検討する。
論文 参考訳(メタデータ) (2020-07-20T14:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。