論文の概要: An Enactivist account of Mind Reading in Natural Language Understanding
- arxiv url: http://arxiv.org/abs/2111.06179v1
- Date: Thu, 11 Nov 2021 12:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 18:57:58.465476
- Title: An Enactivist account of Mind Reading in Natural Language Understanding
- Title(参考訳): 自然言語理解におけるマインドリードの実践的記述
- Authors: Peter Wallis and Bruce Edmonds
- Abstract要約: 我々は、古典的なAIハード問題に対して、急進的行動主義的議題の理解を適用する。
チューリングテストはコンピュータが言語を使えると仮定し、その課題は人間の知性を偽造することであった。
この論文は、自然言語の理解が人間間でどのように機能するかを再検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper we apply our understanding of the radical enactivist agenda to
a classic AI-hard problem. Natural Language Understanding is a sub-field of AI
research that looked easy to the pioneers. Thus the Turing Test, in its
original form, assumed that the computer could use language and the challenge
was to fake human intelligence. It turned out that playing chess and formal
logic were easy compared to the necessary language skills. The techniques of
good old-fashioned AI (GOFAI) assume symbolic representation is the core of
reasoning and human communication consisted of transferring representations
from one mind to another. But by this model one finds that representations
appear in another's mind, without appearing in the intermediary language.
People communicate by mind reading it seems. Systems with speech interfaces
such as Alexa and Siri are of course common but they are limited. Rather than
adding mind reading skills, we introduced a "cheat" that enabled our systems to
fake it. The cheat is simple and only slightly interesting to computer
scientists and not at all interesting to philosophers. However, reading about
the enactivist idea that we "directly perceive" the intentions of others, our
cheat took on a new light and in this paper look again at how natural language
understanding might actually work between humans.
- Abstract(参考訳): 本稿では,古典的AI問題に対する急進的行動主義的課題の理解を応用する。
自然言語理解はAI研究のサブフィールドであり、先駆者には簡単に見えました。
このようにチューリングテストは、コンピュータが言語を使えると仮定し、その課題は人間の知性を偽造することであった。
チェスや形式論理は必要な言語スキルに比べれば容易であることが判明した。
優れた古き良きAI(GOFAI)のテクニックは、象徴的表現が推論のコアであり、人間のコミュニケーションは、ある心から別の心へ表現を移すことから成り立っている。
しかし、このモデルにより、表現は中間言語に現れることなく、他者の心に現れることが分かる。
人々はそれを心から読んでコミュニケーションします。
AlexaやSiriのような音声インターフェイスを持つシステムは、もちろん一般的だが、制限されている。
マインドリーディングスキルを追加するのではなく、システムに偽造を可能にする“チート”を導入しました。
この不正行為は単純で、コンピュータ科学者にはわずかにしか興味がなく、哲学者には全然興味がない。
しかし、他人の意図を「直接知覚する」という実践主義的な考えについて、私たちの浮気は新しい光を浴び、この論文では、自然言語の理解が人間の間でどのように機能するかを再検討する。
関連論文リスト
- The Hermeneutic Turn of AI: Is the Machine Capable of Interpreting? [0.0]
本稿では、ディープラーニング(人工ニューラルネットワーク)によってコンピューティングのアプローチが破壊されていることを実証することを目的としている。
また、この運動と平行な点を強調し、人間のようなAIの考え方を軽視するために、ハーメニューティクスの哲学的伝統を論じている。
論文 参考訳(メタデータ) (2024-11-19T13:59:16Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Le Nozze di Giustizia. Interactions between Artificial Intelligence,
Law, Logic, Language and Computation with some case studies in Traffic
Regulations and Health Care [0.0]
この論文の重要な目的は、数理論理の基礎を人工知能を扱う法的なコミュニティに伝えることである。
AIとは何かを分析した後、ニューラルネットワークと機械学習を別として、ルールベースのAIに身を委ねることにしました。
数学的論理が法則に基づくAIの実践とどのように相互作用するかを見る。
論文 参考訳(メタデータ) (2024-02-09T15:43:31Z) - What should I say? -- Interacting with AI and Natural Language
Interfaces [0.0]
HAI(Human-AI Interaction)サブフィールドは、HCI(Human-Computer Interaction)フィールドから生まれ、この概念を検証することを目的としている。
以前の研究では、マインド表現の理論は成功と努力の無いコミュニケーションに不可欠であると示唆されていたが、AIと対話する際にマインド表現の理論が確立されるという点に関しては、ほとんど理解されていない。
論文 参考訳(メタデータ) (2024-01-12T05:10:23Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Understanding Natural Language Understanding Systems. A Critical
Analysis [91.81211519327161]
自然言語理解システム(Natural Language Understanding (NLU) system)としても知られる usguillemotright(英語版) のようなギユモトレフトークを持つ機械の開発は、人工知能の聖杯(英語版) (AI) である。
しかし、Gillemottalking machineguillemotrightを構築することができるという信頼は、次世代のNLUシステムによってもたらされたものよりも強かった。
私たちは新しい時代の夜明けに、ついに砂利が我々に近づいたのか?
論文 参考訳(メタデータ) (2023-03-01T08:32:55Z) - Human Heuristics for AI-Generated Language Are Flawed [8.465228064780744]
我々は,最も個人的かつ連続的な言語である動詞の自己表現が,AIによって生成されたかを検討した。
我々は,これらの単語がAI生成言語の人間の判断を予測可能で操作可能であることを実験的に実証した。
我々は、AIアクセントのようなソリューションについて議論し、AIによって生成された言語の誤認の可能性を減らす。
論文 参考訳(メタデータ) (2022-06-15T03:18:56Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Introducing the Talk Markup Language (TalkML):Adding a little social
intelligence to industrial speech interfaces [0.0]
自然言語の理解は、AI研究の最も残念な失敗の1つだ。
本稿では、他の分野からアイデアを取り入れて実装した方法について述べる。
論文 参考訳(メタデータ) (2021-05-24T14:25:35Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。