論文の概要: Towards a framework for understanding societal and ethical implications
of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2001.09750v1
- Date: Fri, 3 Jan 2020 17:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 00:23:20.554814
- Title: Towards a framework for understanding societal and ethical implications
of Artificial Intelligence
- Title(参考訳): 人工知能の社会的・倫理的意味を理解するための枠組み
- Authors: Richard Benjamins and Idoia Salazar
- Abstract要約: 本研究の目的は,AIの大量取り込みによって引き起こされる社会的・倫理的課題を明らかにすることである。
1) 好ましくない影響, 2) 責任, 3) 未知の結果, 4) 関係人ロボット, 5) 権力と富の集中, 6) 意図的悪用, 7) 武器と戦争のためのAI。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is one of the most discussed technologies today.
There are many innovative applications such as the diagnosis and treatment of
cancer, customer experience, new business, education, contagious diseases
propagation and optimization of the management of humanitarian catastrophes.
However, with all those opportunities also comes great responsibility to ensure
good and fair practice of AI. The objective of this paper is to identify the
main societal and ethical challenges implied by a massive uptake of AI. We have
surveyed the literature for the most common challenges and classified them in
seven groups: 1) Non-desired effects, 2) Liability, 3) Unknown consequences, 4)
Relation people-robots, 5) Concentration of power and wealth, 6) Intentional
bad uses, and 7) AI for weapons and warfare. The challenges should be dealt
with in different ways depending on their origin; some have technological
solutions, while others require ethical, societal, or political answers.
Depending on the origin, different stakeholders might need to act. Whatever the
identified stakeholder, not treating those issues will lead to uncertainty and
unforeseen consequences with potentially large negative societal impact,
hurting especially the most vulnerable groups of societies. Technology is
helping to take better decisions, and AI is promoting data-driven decisions in
addition to experience- and intuition-based discussion, with many improvements
happening. However, the negative side effects of this technology need to be
well understood and acted upon before we launch them massively into the world.
- Abstract(参考訳): 人工知能(AI)は現在最も議論されている技術の1つです。
がんの診断と治療、顧客体験、新しいビジネス、教育、伝染病の伝播、人道的災害の管理の最適化など、多くの革新的な応用がある。
しかし、これらすべての機会によって、AIの優れた公正な実践を保証する大きな責任ももたらされます。
本研究の目的は,AIの大量取り込みによって引き起こされる社会的・倫理的課題を明らかにすることである。
我々は,最も一般的な課題について文献を調査し,それらを7つのグループに分類した。
1)望ましくない効果、
2)責任
3) 未知の結果。
4)人間-ロボットの関係
5)権力と富の集中。
6)意図的な悪用,及び
7) 武器と戦争のためのai。
技術的な解決策があるものもあれば、倫理的、社会的、政治的回答を必要とするものもある。
起源によって異なる利害関係者が行動する必要があるかもしれない。
特定された株主が何であれ、これらの問題を扱わないことが不確実性と予期せぬ結果につながり、潜在的に大きなネガティブな社会的影響をもたらし、特に最も脆弱な社会集団を傷つける。
テクノロジーはより良い決定を下すのに役立ち、AIは経験と直観に基づく議論に加えて、データ駆動の意思決定を促進する。
しかし、この技術によるネガティブな副作用は、我々が世界に向けて打ち上げる前によく理解され、行動する必要がある。
関連論文リスト
- Hype, Sustainability, and the Price of the Bigger-is-Better Paradigm in AI [67.58673784790375]
AIパラダイムは、科学的に脆弱なだけでなく、望ましくない結果をもたらすものだ、と私たちは主張する。
第一に、計算要求がモデルの性能よりも早く増加し、不合理な経済要求と不均等な環境フットプリントにつながるため、持続可能ではない。
第二に、健康、教育、気候などの重要な応用は別として、他人を犠牲にして特定の問題に焦点をあてることである。
論文 参考訳(メタデータ) (2024-09-21T14:43:54Z) - Ten Hard Problems in Artificial Intelligence We Must Get Right [72.99597122935903]
AIの約束を阻止し、AIのリスクを引き起こすAI2050の「ハード問題」について検討する。
それぞれの問題について、その領域を概説し、最近の重要な作業を特定し、今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-06T23:16:41Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - The Promise and Peril of Artificial Intelligence -- Violet Teaming
Offers a Balanced Path Forward [56.16884466478886]
本稿では、不透明で制御不能なAIシステムにおける新興問題についてレビューする。
信頼性と責任のあるAIを開発するために、紫外チームと呼ばれる統合フレームワークを提案する。
それは、設計によって積極的にリスクを管理するためのAI安全研究から生まれた。
論文 参考訳(メタデータ) (2023-08-28T02:10:38Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Ever heard of ethical AI? Investigating the salience of ethical AI
issues among the German population [0.0]
AIに対する一般的な関心と高等教育レベルは、AIとの関わりを予測している。
倫理的な問題は、公平さ、説明責任、透明性が最も言及されていない市民の小さなサブセットによってのみ語られる。
倫理的AIが頭上に立つと、アクティビズムの可能性がある。
論文 参考訳(メタデータ) (2022-07-28T13:46:13Z) - AI Challenges for Society and Ethics [0.0]
人工知能はすでに、医療、金融、警察など、社会の重要な分野に応用され、影響を及ぼしている。
AIガバナンスの役割は、最終的に、AIにおけるイノベーションのメリットを実現しつつ、この危害のリスクを軽減するための実践的なステップを取ることです。
また、社会におけるAIの有益な利用がどのようなものかという規範的な質問を通じて考えることも必要だ。
論文 参考訳(メタデータ) (2022-06-22T13:33:11Z) - Ethical AI for Social Good [0.0]
AI for Social Good(AI4SG)の概念は、情報社会とAIコミュニティの両方で勢いを増している。
本稿では,今後のAI4SGの取り組みに不可欠な倫理的側面に対処することで,その空白を埋める。
論文 参考訳(メタデータ) (2021-07-14T15:16:51Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。