論文の概要: AI Development Race Can Be Mediated on Heterogeneous Networks
- arxiv url: http://arxiv.org/abs/2012.15234v1
- Date: Wed, 30 Dec 2020 17:23:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 11:42:41.621272
- Title: AI Development Race Can Be Mediated on Heterogeneous Networks
- Title(参考訳): AI開発レースは異種ネットワークで仲介できる
- Authors: Theodor Cimpeanu, Francisco C. Santos, Luis Moniz Pereira, Tom
Lenaerts and The Anh Han
- Abstract要約: 人種間の相互作用構造の違いが集団的選択や規制行動の要件をいかに変えられるかを検討する。
その結果, 相互関係や相互影響の点で強い多様性を示す場合, 均質な環境に存在する対立は著しく減少することが示唆された。
- 参考スコア(独自算出の注目度): 8.131948859165432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Artificial Intelligence (AI) has been introducing a certain
level of anxiety in research, business and also policy. Tensions are further
heightened by an AI race narrative which makes many stakeholders fear that they
might be missing out. Whether real or not, a belief in this narrative may be
detrimental as some stakeholders will feel obliged to cut corners on safety
precautions or ignore societal consequences. Starting from a game-theoretical
model describing an idealised technology race in a well-mixed world, here we
investigate how different interaction structures among race participants can
alter collective choices and requirements for regulatory actions. Our findings
indicate that, when participants portray a strong diversity in terms of
connections and peer-influence (e.g., when scale-free networks shape
interactions among parties), the conflicts that exist in homogeneous settings
are significantly reduced, thereby lessening the need for regulatory actions.
Furthermore, our results suggest that technology governance and regulation may
profit from the world's patent heterogeneity and inequality among firms and
nations to design and implement meticulous interventions on a minority of
participants capable of influencing an entire population towards an ethical and
sustainable use of AI.
- Abstract(参考訳): 人工知能(AI)の分野は、研究、ビジネス、および政策に一定のレベルの不安をもたらしている。
緊張はAIレースの物語によってさらに高まっており、多くの利害関係者が行方不明になることを恐れている。
現実であろうとなかろうと、この物語に対する信念は有害であり、一部の利害関係者は安全上の予防や社会的結果を無視しなければならないと感じている。
混合した世界での理想化された技術競争を記述したゲーム理論モデルから始め、人種間の相互作用構造の違いが集団的選択や規制行動の要件をいかに変えられるかを検討する。
その結果、参加者がつながりや相互影響(例えば、スケールフリーネットワークが当事者間の相互作用を形作る場合)で強い多様性を表わすと、均質な設定に存在する衝突が著しく減少し、規制措置の必要性が低下することが示された。
さらに, 技術ガバナンスと規制は, 企業や国家間の特許の不均一性と不平等から利益を得られ, 倫理的かつ持続的なaiの利用に向けて, 少数の参加者に対して, 細心の注意を払って介入を行うことが期待できる。
関連論文リスト
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Mediating Artificial Intelligence Developments through Negative and
Positive Incentives [5.0066859598912945]
ポジティブな(リワード)インセンティブとネガティブな(罰)インセンティブが結果にどう影響するかを検討する。
いくつかのシナリオにおいて、安全対策に従う者に報酬を与えると、開発速度が向上し、安全な選択が保証されることが示されている。
論文 参考訳(メタデータ) (2020-10-01T13:43:32Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。