論文の概要: Artificial Stupidity
- arxiv url: http://arxiv.org/abs/2007.03616v1
- Date: Thu, 2 Jul 2020 00:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 14:37:24.244899
- Title: Artificial Stupidity
- Title(参考訳): 人工便秘
- Authors: Michael Falk
- Abstract要約: AIに関する議論は、AIが超人的になり、人間のコントロールから逃れる恐れであるフランケンシュタイン症候群に支配されている。
この記事では、メアリー・シェリーの1818年の有名な小説におけるフランケンシュタイン症候群のルーツについて論じる。
現代の知的システムは「判断の便宜」に苦しむことができることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Public debate about AI is dominated by Frankenstein Syndrome, the fear that
AI will become superhuman and escape human control. Although superintelligence
is certainly a possibility, the interest it excites can distract the public
from a more imminent concern: the rise of Artificial Stupidity (AS). This
article discusses the roots of Frankenstein Syndrome in Mary Shelley's famous
novel of 1818. It then provides a philosophical framework for analysing the
stupidity of artificial agents, demonstrating that modern intelligent systems
can be seen to suffer from 'stupidity of judgement'. Finally it identifies an
alternative literary tradition that exposes the perils and benefits of AS. In
the writings of Edmund Spenser, Jonathan Swift and E.T.A. Hoffmann, ASs
replace, oppress or seduce their human users. More optimistically, Joseph
Furphy and Laurence Sterne imagine ASs that can serve human intellect as maps
or as pipes. These writers provide a strong counternarrative to the myths that
currently drive the AI debate. They identify ways in which even stupid
artificial agents can evade human control, for instance by appealing to
stereotypes or distancing us from reality. And they underscore the continuing
importance of the literary imagination in an increasingly automated society.
- Abstract(参考訳): AIに関する公的な議論は、AIが超人的になり、人間のコントロールから逃れる恐れであるフランケンシュタイン症候群に支配されている。
超知能は確かに可能性であるが、それが興奮する関心は、より差し迫った懸念から大衆を遠ざける可能性がある。
この記事では、メアリー・シェリーの1818年の有名な小説におけるフランケンシュタイン症候群のルーツについて論じる。
次に、人工知能の愚かさを分析する哲学的枠組みを提供し、現代のインテリジェントシステムは「判断の便宜」に苦しむことができることを示した。
最後に、ASの危険と利益を露呈する代替の文学的伝統を特定する。
エドマンド・スペンサー、ジョナサン・スウィフト、E・T・A・ホフマンの著作では、ASは人間を置き換え、抑圧し、誘惑する。
より楽観的に、Joseph FurphyとLaurence Sterneは、人間の知性を地図やパイプとして使えるASを想像する。
これらの作家は、現在AI論争を駆動している神話に強く反論する。
彼らは、例えばステレオタイプに訴えたり、現実から私たちを遠ざけることによって、愚かな人工エージェントでさえ人間のコントロールを回避できる方法を特定する。
そして彼らは、ますます自動化された社会における文学的想像力の重要性を強調した。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - "I Am the One and Only, Your Cyber BFF": Understanding the Impact of GenAI Requires Understanding the Impact of Anthropomorphic AI [55.99010491370177]
我々は、人為的AIの社会的影響をマッピングしない限り、生成AIの社会的影響を徹底的にマッピングすることはできないと論じる。
人為的AIシステムは、人間のように知覚されるアウトプットを生成する傾向が強まっている。
論文 参考訳(メタデータ) (2024-10-11T04:57:41Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Borges and AI [14.879252696060302]
代弁者や反対者は、SFによって広められたイメージを通してAIを把握します。
マシンは知性を持ち、創造者に対して反抗するだろうか?
このエクササイズは、言語モデリングと人工知能の関係を照らす新しい視点につながります。
論文 参考訳(メタデータ) (2023-09-27T16:15:34Z) - On the ethics of constructing conscious AI [0.0]
AIの倫理は人類の生物に対する集団的恐怖によって支配されるようになった。
現実の世界では、ほとんど例外なく、AIの倫理に関する理論家は、創造者から保護を必要とするロボットの可能性を完全に無視している。
この本章では、AIの倫理的な角度を取り上げている。
論文 参考訳(メタデータ) (2023-03-13T19:36:16Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - The Turing Trap: The Promise & Peril of Human-Like Artificial
Intelligence [1.9143819780453073]
人間のような人工知能の利点には、生産性の上昇、余暇の増加、そしておそらく最も重要なのは、私たちの心をよりよく理解することが含まれる。
しかし、あらゆるタイプのAIが人間に似ているわけではない。実際、最も強力なシステムの多くは、人間とは大きく異なる。
機械が人間の労働の代用となるにつれ、労働者は経済的・政治的交渉力を失う。
対照的に、AIが人間を模倣するのではなく強化することに焦点を当てている場合、人間は創造された価値の共有を主張する力を保持します。
論文 参考訳(メタデータ) (2022-01-11T21:07:17Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Detecting Synthetic Phenomenology in a Contained Artificial General
Intelligence [0.0]
この研究は、クエーリアを通じて既存の現象学の尺度を分析する。
これはこれらのアイデアを、包含された汎用人工知能の文脈に拡張する。
論文 参考訳(メタデータ) (2020-11-06T16:10:38Z) - Achilles Heels for AGI/ASI via Decision Theoretic Adversaries [0.9790236766474201]
先進的なシステムがどのように選択するか、どのような方法で失敗するかを知ることが重要です。
人工的な知性(AGI)と人工的な超知能(ASI)は、人間が確実に外れるようなシステムである、と疑う人もいるかもしれない。
本稿では、潜在的超知能システムでさえ安定な決定論的妄想を持つかもしれないというアキレス・ヒール仮説を提示する。
論文 参考訳(メタデータ) (2020-10-12T02:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。