論文の概要: A Game-Theoretic Framework for AI Governance
- arxiv url: http://arxiv.org/abs/2305.14865v1
- Date: Wed, 24 May 2023 08:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 18:23:06.469777
- Title: A Game-Theoretic Framework for AI Governance
- Title(参考訳): AIガバナンスのためのゲーム理論フレームワーク
- Authors: Na Zhang, Kun Yue, Chao Fang
- Abstract要約: 規制当局とAI企業間の戦略的相互作用は、Stackelbergのゲームを連想させる固有の構造を持っていることを示す。
本稿では,AIガバナンスのためのゲーム理論モデリングフレームワークを提案する。
私たちの知る限りでは、この研究はAIガバナンスの分析と構造化にゲーム理論を使った最初のものである。
- 参考スコア(独自算出の注目度): 8.658519485150423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a transformative general-purpose technology, AI has empowered various
industries and will continue to shape our lives through ubiquitous
applications. Despite the enormous benefits from wide-spread AI deployment, it
is crucial to address associated downside risks and therefore ensure AI
advances are safe, fair, responsible, and aligned with human values. To do so,
we need to establish effective AI governance. In this work, we show that the
strategic interaction between the regulatory agencies and AI firms has an
intrinsic structure reminiscent of a Stackelberg game, which motivates us to
propose a game-theoretic modeling framework for AI governance. In particular,
we formulate such interaction as a Stackelberg game composed of a leader and a
follower, which captures the underlying game structure compared to its
simultaneous play counterparts. Furthermore, the choice of the leader naturally
gives rise to two settings. And we demonstrate that our proposed model can
serves as a unified AI governance framework from two aspects: firstly we can
map one setting to the AI governance of civil domains and the other to the
safety-critical and military domains, secondly, the two settings of governance
could be chosen contingent on the capability of the intelligent systems. To the
best of our knowledge, this work is the first to use game theory for analyzing
and structuring AI governance. We also discuss promising directions and hope
this can help stimulate research interest in this interdisciplinary area. On a
high, we hope this work would contribute to develop a new paradigm for
technology policy: the quantitative and AI-driven methods for the technology
policy field, which holds significant promise for overcoming many shortcomings
of existing qualitative approaches.
- Abstract(参考訳): 変革的な汎用技術として、AIはさまざまな産業に力を与え、ユビキタスなアプリケーションを通じて私たちの生活を形作り続けています。
広範囲にわたるAIデプロイメントによる大きなメリットにもかかわらず、関連するダウンサイドリスクに対処し、AIの進歩が安全で公平で責任があり、人間の価値と一致していることを保証することが不可欠である。
そのためには、効果的なAIガバナンスを確立する必要があります。
本研究では,規制当局とAI企業間の戦略的相互作用が,AIガバナンスのためのゲーム理論モデリングフレームワークの提案を動機とした,Stackelbergゲームに固有の構造を持つことを示す。
特に、リーダーとフォロワからなるstackelbergゲームのようなインタラクションを定式化し、そのゲーム構造を同時プレイと比べて、その基盤となるゲーム構造をキャプチャする。
さらに、リーダーの選択は、自然に2つの設定をもたらす。
ひとつは、民間ドメインのAIガバナンスに、もうひとつは安全クリティカルで軍事的なドメインに、もうひとつは、インテリジェントなシステムの能力に基づいて、ガバナンスの2つの設定を選択することが可能です。
私たちの知る限りでは、この研究はAIガバナンスの分析と構造化にゲーム理論を使った最初のものである。
また、将来的な方向性についても議論し、この学際分野への研究の関心を高めることを期待する。
高いレベルでは、この研究が、既存の質的アプローチの多くの欠点を克服する大きな約束を持つ、技術政策分野のための定量的かつai駆動の手法である、技術政策の新しいパラダイムの開発に寄与することを望んでいる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Strategic Integration of Artificial Intelligence in the C-Suite: The Role of the Chief AI Officer [0.0]
私は、C-スーツにおけるチーフAIオフィサー(CAIO)の役割を探求し、AI戦略、統合、ガバナンスを成功させるためにこのポジションの必要性を強調します。
私は、AI経済、AI組織、AI時代の競争という3つの重要な領域における現在のトレンドに基づいて、将来のシナリオを分析します。
本稿では、経営レベルでのAIの戦略的統合の根拠を提供し、組織内のチーフAIオフィサーの役割を検討することによって、AIリーダーシップに関する議論を進める。
論文 参考訳(メタデータ) (2024-04-30T19:07:18Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - A call for embodied AI [1.7544885995294304]
我々は、人工知能の次の基本ステップとして、エンボディードAIを提案する。
Embodied AIの範囲を広げることで、認知アーキテクチャに基づく理論的枠組みを導入する。
このフレームワークはFristonのアクティブな推論原則と一致しており、EAI開発に対する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-06T09:11:20Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。