論文の概要: Artificial Tikkun Olam: AI Can Be Our Best Friend in Building an Open
Human-Computer Society
- arxiv url: http://arxiv.org/abs/2010.12015v1
- Date: Tue, 20 Oct 2020 23:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 05:12:34.670966
- Title: Artificial Tikkun Olam: AI Can Be Our Best Friend in Building an Open
Human-Computer Society
- Title(参考訳): 人工ティククン・オラム:AIはオープンなコンピュータ社会を作るのに最適な友人になれる
- Authors: Simon Kasif
- Abstract要約: 我々は、あらゆる技術の広範な実践的展開が、ノウハウを誤用する有害な副作用をもたらす可能性があるという長年の知恵をレビューする。
我々は、医療産業やその他の分野における、一般的な、およびAI特有のリスクについて説明する。
本稿では,その社会的影響に対応した簡易な知的システム商法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Technological advances of virtually every kind pose risks to society
including fairness and bias. We review a long-standing wisdom that a widespread
practical deployment of any technology may produce adverse side effects
misusing the knowhow. This includes AI but AI systems are not solely
responsible for societal risks. We describe some of the common and AI specific
risks in health industries and other sectors and propose both broad and
specific solutions. Each technology requires very specialized and informed
tracking, monitoring and creative solutions. We postulate that AI systems are
uniquely poised to produce conceptual and methodological solutions to both
fairness and bias in automated decision-making systems. We propose a simple
intelligent system quotient that may correspond to their adverse societal
impact and outline a multi-tier architecture for producing solutions of
increasing complexity to these risks. We also propose that universities may
consider forming interdisciplinary Study of Future Technology Centers to
investigate and predict the fuller range of risks posed by technology and seek
both common and AI specific solutions using computational, technical,
conceptual and ethical analysis
- Abstract(参考訳): 事実上あらゆる種類の技術的進歩は、公正さや偏見を含む社会にリスクをもたらす。
我々は、あらゆる技術の広範な実践的展開が、ノウハウを誤用する悪影響をもたらすという長年の知恵をレビューする。
これにはAIが含まれているが、AIシステムは社会的リスクにのみ責任があるわけではない。
我々は、健康産業やその他の分野における共通およびai特有のリスクのいくつかを説明し、広範かつ特定の解決策を提案する。
それぞれの技術には、非常に専門的でインフォームドなトラッキング、モニタリング、クリエイティブなソリューションが必要です。
我々は、AIシステムは、自動意思決定システムにおける公正性とバイアスの両方に対する概念的および方法論的ソリューションを作成するのに一意に適していると仮定する。
我々は,その社会的悪影響に対応可能な単純な知的システム商を提案し,これらのリスクに対して複雑性を増大させる解決策を生み出すための多層アーキテクチャを概説する。
我々はまた、大学が将来の技術センターの学際的な研究を行い、技術がもたらすリスクの全範囲を調査し、予測し、計算、技術的、概念的、倫理的分析を用いて、一般的な、AI固有のソリューションを探求することを提案する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - An Overview of Catastrophic AI Risks [38.84933208563934]
本稿では,破滅的なAIリスクの主な要因について概説し,その要因を4つのカテゴリに分類する。
個人やグループが意図的にAIを使用して危害を及ぼす悪用; 競争環境がアクターに安全でないAIを配置させたり、AIに制御を強制するAIレース。
組織的リスクは 人的要因と複雑なシステムが 破滅的な事故の 可能性を高めることを示しています
不正なAIは、人間よりもはるかにインテリジェントなエージェントを制御することの難しさを説明する。
論文 参考訳(メタデータ) (2023-06-21T03:35:06Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Inherent Limitations of AI Fairness [16.588468396705366]
AIフェアネスの研究は、コンピュータ科学、社会科学、法学、哲学と結びついた豊富な研究分野へと急速に発展してきた。
AIフェアネスの測定と達成のための多くの技術的ソリューションが提案されているが、そのアプローチは近年、誤解を招く、非現実的で有害であるとして批判されている。
論文 参考訳(メタデータ) (2022-12-13T11:23:24Z) - A Brief Overview of AI Governance for Responsible Machine Learning
Systems [3.222802562733787]
このポジションペーパーは、AIの責任ある使用を監督するように設計されたフレームワークである、AIガバナンスの簡単な紹介を提案する。
AIの確率的性質のため、それに関連するリスクは従来の技術よりもはるかに大きい。
論文 参考訳(メタデータ) (2022-11-21T23:48:51Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。