論文の概要: Detecting Synthetic Phenomenology in a Contained Artificial General
Intelligence
- arxiv url: http://arxiv.org/abs/2011.05807v1
- Date: Fri, 6 Nov 2020 16:10:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:17:45.061913
- Title: Detecting Synthetic Phenomenology in a Contained Artificial General
Intelligence
- Title(参考訳): 包含型汎用知能における合成現象学の検出
- Authors: Jason M. Pittman, Ashlyn Hanks
- Abstract要約: この研究は、クエーリアを通じて既存の現象学の尺度を分析する。
これはこれらのアイデアを、包含された汎用人工知能の文脈に拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-like intelligence in a machine is a contentious subject. Whether
mankind should or should not pursue the creation of artificial general
intelligence is hotly debated. As well, researchers have aligned in opposing
factions according to whether mankind can create it. For our purposes, we
assume mankind can and will do so. Thus, it becomes necessary to contemplate
how to do so in a safe and trusted manner -- enter the idea of boxing or
containment. As part of such thinking, we wonder how a phenomenology might be
detected given the operational constraints imposed by any potential containment
system. Accordingly, this work provides an analysis of existing measures of
phenomenology through qualia and extends those ideas into the context of a
contained artificial general intelligence.
- Abstract(参考訳): 機械の中の人間のような知性は議論の対象である。
人類が人工知能の創造を追求すべきか否かは熱い議論である。
また、人類が創造できるかどうかによって、研究者は対立する派閥に並んだ。
我々の目的のために、人類はそうできると仮定する。
したがって、安全に信頼された方法でどのように行うかを考える必要がある。ボクシングや封じ込めの考え方に入る。
このような考え方の一環として、潜在的な封じ込めシステムによって課される運用上の制約から、現象学がどう検出されるのか疑問である。
それゆえ、本研究はクエーリアを通じて既存の現象学の尺度の分析を行い、これらの概念を包含する人工知能の文脈に拡張する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Spontaneous Theory of Mind for Artificial Intelligence [2.7624021966289605]
我々は、AIマインド理論(ToM)の研究・開発における原則的アプローチを論じる。
我々は、強い、あるいは一般のAISが、テキストに反応し、自発的に社会的推論を行うよう提案する。
論文 参考訳(メタデータ) (2024-02-16T22:41:13Z) - (Ir)rationality in AI: State of the Art, Research Challenges and Open
Questions [2.9008806248012333]
合理性の概念は人工知能の分野の中心である。
有理エージェントを構成するものの統一的な定義は存在しない。
特定のシナリオで最適であることを示す不合理な行動を考える。
論文 参考訳(メタデータ) (2023-11-28T19:01:09Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Circumventing interpretability: How to defeat mind-readers [0.0]
ミスアライメントされた人工知能は 思考の理解を難しくする 集中的なインセンティブを持つでしょう
有能なAIがスケーラブルな解釈可能性手法を回避できる多くの方法について議論し、これらの潜在的な将来のリスクについて考えるためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-21T23:52:42Z) - An argument for the impossibility of machine intelligence [0.0]
AIの担い手になり得るエージェント(デバイス)とは何かを定義する。
我々は「知性の主流」の定義が弱すぎて、昆虫に知性を割り当てる際に関係するものを捉えることができないことを示した。
私たちは、この定義によって知能の担い手となるために、AIエージェントが保持しなければならない特性を特定します。
論文 参考訳(メタデータ) (2021-10-20T08:54:48Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。