論文の概要: The Tragedy of the AI Commons
- arxiv url: http://arxiv.org/abs/2006.05203v2
- Date: Mon, 18 Jan 2021 19:07:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:28:07.795732
- Title: The Tragedy of the AI Commons
- Title(参考訳): AIコモンズの悲劇
- Authors: Travis LaCroix and Aydin Mohseni
- Abstract要約: 我々は進化ゲーム力学を用いて、人工知能の倫理的発展の文脈における社会的ジレンマをモデル化する。
このようなシナリオでは,効果によって協調が実現可能であることを示す。
彼らは、協力のコストが低く、失敗のリスクが高い小さなグループで共通の利益の調整を試みるべきであることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Policy and guideline proposals for ethical artificial-intelligence research
have proliferated in recent years. These are supposed to guide the
socially-responsible development of AI for the common good. However, there
typically exist incentives for non-cooperation (i.e., non-adherence to such
policies and guidelines); and, these proposals often lack effective mechanisms
to enforce their own normative claims. The situation just described constitutes
a social dilemma; namely, a situation where no one has an individual incentive
to cooperate, though mutual cooperation would lead to the best outcome for all
involved. In this paper, we use stochastic evolutionary game dynamics to model
this social dilemma in the context of the ethical development of artificial
intelligence. This formalism allows us to isolate variables that may be
intervened upon, thus providing actionable suggestions for increased
cooperation amongst numerous stakeholders in AI. Our results show how
stochastic effects can help make cooperation viable in such a scenario. They
suggest that coordination for a common good should be attempted in smaller
groups in which the cost for cooperation is low, and the perceived risk of
failure is high. This provides insight into the conditions under which we
should expect such ethics proposals to be successful with regard to their
scope, scale, and content.
- Abstract(参考訳): 近年,倫理的人工知能研究の政策とガイドラインの提案が盛んである。
これらは、共通の利益のために、社会的責任のあるaiの開発を導くものだ。
しかしながら、通常、非協力のためのインセンティブ(つまり、そのような政策やガイドラインに従わないこと)が存在し、これらの提案は、彼ら自身の規範的主張を強制する効果的なメカニズムを欠いている。
説明された状況は、社会的ジレンマ、すなわち、協力する個別のインセンティブを持たない状況を構成するが、相互協力は、すべての関係者にとって最良の結果をもたらす。
本稿では,この社会ジレンマを,人工知能の倫理的発展の文脈でモデル化するために,確率論的進化ゲームダイナミクスを用いる。
このフォーマリズムは、介入される可能性のある変数を分離することを可能にするため、AIの多くのステークホルダー間の協力を強化するための実用的な提案を提供する。
以上の結果から,このようなシナリオにおいて,確率的効果が協調に有効であることを示す。
彼らは、協力のコストが低く、失敗のリスクが高い小さなグループで共通の利益の調整を試みるべきであることを示唆している。
これは、そのような倫理提案が、その範囲、規模、内容に関して成功すると期待すべき条件について洞察を与える。
関連論文リスト
- A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Investigating the Impact of Direct Punishment on the Emergence of Cooperation in Multi-Agent Reinforcement Learning Systems [2.4555276449137042]
協力の問題は、人間社会の中で一様である。
AIの利用が社会全体に広まるにつれ、社会的にインテリジェントなエージェントの必要性がますます明白になりつつある。
本稿では, 直接罰, 第三者罰, パートナー選択, 評判に関連する行動と学習のダイナミクスを包括的に分析し, 評価する。
論文 参考訳(メタデータ) (2023-01-19T19:33:54Z) - Tackling Asymmetric and Circular Sequential Social Dilemmas with
Reinforcement Learning and Graph-based Tit-for-Tat [0.0]
社会的ジレンマは、複数の俳優が最高の結果を達成するために協力すべき状況を提供するが、怒りと恐怖は最悪の自己関心の問題に繋がる。
近年、深層強化学習の出現は、逐次社会ジレンマ(SSD)の導入により、社会ジレンマへの関心が復活した。
本稿では,エージェント間の協調の多様性をより一般化する新しい種類のマルコフゲームであるCircular Sequential Social Dilemma (CSSD)を用いて,SSDを拡張した。
論文 参考訳(メタデータ) (2022-06-26T15:42:48Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - The art of compensation: how hybrid teams solve collective risk dilemmas [6.081979963786028]
適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
論文 参考訳(メタデータ) (2022-05-13T13:23:42Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Birds of a Feather Flock Together: A Close Look at Cooperation Emergence
via Multi-Agent RL [20.22747008079794]
インセンティブ機構に起因する二階社会ジレンマのダイナミクスについて検討する。
ホモフィリーと呼ばれる人間の典型的な傾向は、この問題を解くことができる。
インセンティブ相同性を促進するための新しい学習枠組みを提案する。
論文 参考訳(メタデータ) (2021-04-23T08:00:45Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。