論文の概要: The Social Contract for AI
- arxiv url: http://arxiv.org/abs/2006.08140v1
- Date: Mon, 15 Jun 2020 05:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:42:53.143831
- Title: The Social Contract for AI
- Title(参考訳): AIのためのソーシャルコントラクト
- Authors: Mirka Snyder Caron (1), Abhishek Gupta (1 and 2) ((1) Montreal AI
Ethics Institute, (2) Microsoft)
- Abstract要約: AIにとって、この社会的契約の期待を満たすことが重要であることを忘れてはならない。
本稿では,この新技術の採用と導入に社会内で十分な合意が得られた場合に,社会契約が生じることを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Like any technology, AI systems come with inherent risks and potential
benefits. It comes with potential disruption of established norms and methods
of work, societal impacts and externalities. One may think of the adoption of
technology as a form of social contract, which may evolve or fluctuate in time,
scale, and impact. It is important to keep in mind that for AI, meeting the
expectations of this social contract is critical, because recklessly driving
the adoption and implementation of unsafe, irresponsible, or unethical AI
systems may trigger serious backlash against industry and academia involved
which could take decades to resolve, if not actually seriously harm society.
For the purpose of this paper, we consider that a social contract arises when
there is sufficient consensus within society to adopt and implement this new
technology. As such, to enable a social contract to arise for the adoption and
implementation of AI, developing: 1) A socially accepted purpose, through 2) A
safe and responsible method, with 3) A socially aware level of risk involved,
for 4) A socially beneficial outcome, is key.
- Abstract(参考訳): 他の技術と同様に、AIシステムは固有のリスクと潜在的な利益をもたらす。
確立された規範や仕事の方法、社会的影響、外部性の潜在的な混乱が伴う。
テクノロジーの採用は社会的契約の一形態であり、それは時間、規模、影響において進化または変動する可能性がある。
安全でない、無責任な、または非倫理的なaiシステムの採用と実装を無謀に推進することは、社会に深刻な害を与えないとしても、解決に数十年を要する産業やアカデミアに対する深刻な反発を引き起こす可能性があるため、aiにとって、この社会契約の期待を満たすことは重要であることを念頭に置いておくことが重要です。
本稿では,この新技術の採用と導入に社会内で十分な合意が得られた場合に,社会契約が生じることを考察する。
このようにして、AIの採用と実装のために社会的契約が生まれるようにする。
1)社会的に受け入れられた目的
2)安全で責任のある方法
3)社会的に意識されたリスクレベル、例えば
4)社会的に有益な結果が鍵となる。
関連論文リスト
- Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Are You Worthy of My Trust?: A Socioethical Perspective on the Impacts
of Trustworthy AI Systems on the Environment and Human Society [0.47138177023764666]
AIシステムの社会的影響を概観する。
ライフサイクルを通して、多分野のガバナンスと収束の必要性を強調します。
論文 参考訳(メタデータ) (2023-09-18T03:07:47Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - AI Challenges for Society and Ethics [0.0]
人工知能はすでに、医療、金融、警察など、社会の重要な分野に応用され、影響を及ぼしている。
AIガバナンスの役割は、最終的に、AIにおけるイノベーションのメリットを実現しつつ、この危害のリスクを軽減するための実践的なステップを取ることです。
また、社会におけるAIの有益な利用がどのようなものかという規範的な質問を通じて考えることも必要だ。
論文 参考訳(メタデータ) (2022-06-22T13:33:11Z) - Ethical AI for Social Good [0.0]
AI for Social Good(AI4SG)の概念は、情報社会とAIコミュニティの両方で勢いを増している。
本稿では,今後のAI4SGの取り組みに不可欠な倫理的側面に対処することで,その空白を埋める。
論文 参考訳(メタデータ) (2021-07-14T15:16:51Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Envisioning Communities: A Participatory Approach Towards AI for Social
Good [10.504838259488844]
社会的善のためのAIは、AIシステムが影響するコミュニティによって評価されるべきである、と我々は主張する。
社会的良き研究のためのAIの設計と実装のための参加型アプローチと、その能力のアプローチがどのように一致するかを示す。
論文 参考訳(メタデータ) (2021-05-04T21:40:04Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。