論文の概要: Is it possible not to cheat on the Turing Test: Exploring the potential
and challenges for true natural language 'understanding' by computers
- arxiv url: http://arxiv.org/abs/2206.14672v1
- Date: Wed, 29 Jun 2022 14:19:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 22:54:32.840303
- Title: Is it possible not to cheat on the Turing Test: Exploring the potential
and challenges for true natural language 'understanding' by computers
- Title(参考訳): チューリングテストで不正は不可能か:コンピュータによる真の自然言語の「理解」の可能性と課題を探る
- Authors: Lize Alberts
- Abstract要約: 人工知能における自然言語理解の領域は、大きな進歩を遂げたと主張している。
現在のアプローチと残る課題について、包括的で学際的な概要は、まだ実行されていない。
これらすべての視点をまとめて、真の(人間のような)言語理解に到達する上での課題を解き放ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent hype surrounding the increasing sophistication of language processing
models has renewed optimism regarding machines achieving a human-like command
of natural language. The area of natural language understanding in artificial
intelligence claims to have been making great strides in this area, however,
the lack of conceptual clarity in how 'understanding' is used in this and other
disciplines have made it difficult to discern how close we actually are. A
comprehensive, interdisciplinary overview of current approaches and remaining
challenges is yet to be carried out. Beyond linguistic knowledge, this requires
considering our species-specific capabilities to categorize, memorize, label
and communicate our (sufficiently similar) embodied and situated experiences.
Moreover, gauging the practical constraints requires critically analyzing the
technical capabilities of current models, as well as deeper philosophical
reflection on theoretical possibilities and limitations. In this paper, I unite
all of these perspectives -- the philosophical, cognitive-linguistic, and
technical -- to unpack the challenges involved in reaching true (human-like)
language understanding. By unpacking the theoretical assumptions inherent in
current approaches, I hope to illustrate how far we actually are from achieving
this goal, if indeed it is the goal.
- Abstract(参考訳): 言語処理モデルの高度化に伴う近年の誇大広告は、自然言語の人間的なコマンドを達成する機械に対する楽観主義を再燃させた。
人工知能における自然言語理解の領域は、この分野において大きな進歩を遂げたと主張しているが、この分野での「理解」がどのように使われているかという概念的明確さの欠如は、我々が実際にどれほど近いかを理解するのを困難にしている。
現在のアプローチと残る課題に関する包括的で学際的な概要はまだ実行されていない。
言語知識以外にも、私たちの(十分に類似した)具体化され、位置付けられた経験を分類し、記憶し、ラベル付けし、伝達する種特有の能力を考える必要があります。
さらに、現実的な制約を解くには、現在のモデルの技術的能力と、理論的可能性と限界に関する深い哲学的考察を批判的に分析する必要がある。
本稿では,これらすべての視点 - 哲学的,認知言語主義的,技術的 - をまとめて,真の(人間に似た)言語理解を達成する上での課題を解き明かす。
現在のアプローチに固有の理論的な仮定を解き放つことで、この目標が本当に目標であるならば、実際にこの目標を達成するのがどれくらい遠いのかを説明したいと思っています。
関連論文リスト
- Toward Transdisciplinary Approaches to Audio Deepfake Discernment [0.0]
この視点は、オーディオディープフェイクの検出と識別の課題に対処するために、分野を越えて学者に呼びかける。
我々は、言語知識をAIアプローチに組み込んだ最近の学際的な研究の有望な可能性を見出した。
論文 参考訳(メタデータ) (2024-11-08T20:59:25Z) - Expressivity and Speech Synthesis [51.75420054449122]
われわれはこれまでの方法論の進歩を概説し、その次のレベルの人工表現性に到達するための継続的な取り組みを概説した。
また、社会的な意味と、急速に進歩する表現型音声合成(ESS)技術についても論じる。
論文 参考訳(メタデータ) (2024-04-30T08:47:24Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - On the Computation of Meaning, Language Models and Incomprehensible Horrors [0.0]
我々は、意味の基本理論を、人工知能(AGI)の数学的形式主義と統合する。
我々の発見は、意味と知性の関係と、意味を理解して意図する機械を構築する方法に光を当てた。
論文 参考訳(メタデータ) (2023-04-25T09:41:00Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Mind the Gap! Bridging Explainable Artificial Intelligence and Human Understanding with Luhmann's Functional Theory of Communication [5.742215677251865]
我々は、説明可能な人工知能の課題を強調するために、社会システム理論を適用した。
我々は,インタラクティブかつ反復的な説明者の方向性で技術研究を再活性化することを目的としている。
論文 参考訳(メタデータ) (2023-02-07T13:31:02Z) - Beyond Interpretable Benchmarks: Contextual Learning through Cognitive
and Multimodal Perception [0.0]
この研究は、チューリングテストがコンピュータシステムを人為的に形作る試みであると誤解されていることを主張する。
通訳性に欠けるにもかかわらず、汎用知能の基盤として暗黙の学習を強調している。
論文 参考訳(メタデータ) (2022-12-04T08:30:04Z) - The Debate Over Understanding in AI's Large Language Models [0.18275108630751835]
我々は、AI研究コミュニティにおける、大規模な事前訓練された言語モデルが"理解"言語と言えるかどうかについて、現在、熱い議論を調査している。
我々は、異なる理解様式に関する洞察を提供する新しい知性科学を開発することができると論じる。
論文 参考訳(メタデータ) (2022-10-14T17:04:29Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。