論文の概要: Type theory in human-like learning and inference
- arxiv url: http://arxiv.org/abs/2210.01634v1
- Date: Tue, 4 Oct 2022 14:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 14:14:40.783968
- Title: Type theory in human-like learning and inference
- Title(参考訳): 人間型学習と推論における型理論
- Authors: Felix A. Sosa, Tomer Ullman
- Abstract要約: 人間は、新しいクエリに対する合理的な回答を生成することができる。
この種の推論には正式なモデルはない。
このような推論系の中核となる成分は型理論である。
- 参考スコア(独自算出の注目度): 3.3178024597495903
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans can generate reasonable answers to novel queries (Schulz, 2012): if I
asked you what kind of food you want to eat for lunch, you would respond with a
food, not a time. The thought that one would respond "After 4pm" to "What would
you like to eat" is either a joke or a mistake, and seriously entertaining it
as a lunch option would likely never happen in the first place. While
understanding how people come up with new ideas, thoughts, explanations, and
hypotheses that obey the basic constraints of a novel search space is of
central importance to cognitive science, there is no agreed-on formal model for
this kind of reasoning. We propose that a core component of any such reasoning
system is a type theory: a formal imposition of structure on the kinds of
computations an agent can perform, and how they're performed. We motivate this
proposal with three empirical observations: adaptive constraints on learning
and inference (i.e. generating reasonable hypotheses), how people draw
distinctions between improbability and impossibility, and people's ability to
reason about things at varying levels of abstraction.
- Abstract(参考訳): 人間は、新しい質問に対して合理的に答えることができます(schulz, 2012): もし、昼食にどんな食べ物を食べたいか尋ねたら、あなたは、時間ではなく、食べ物で応答します。
午後4時以降」から「食べたいもの」への反応は、冗談か間違いかのどちらかであり、ランチオプションとして真剣に楽しませることは、そもそも起こらないだろう。
人々が新しい考え、考え、説明、仮説をどう思いつくかを理解することは、新しい検索空間の基本的制約に従うことは認知科学の中心的な重要性であるが、この種の推論の正式なモデルには一致していない。
このような推論システムの中核となるコンポーネントはタイプ理論であり、エージェントが実行できる計算の種類とそれらの実行方法に関する構造を形式的に記述することである。
この提案には、学習と推論に対する適応的制約(すなわち合理的な仮説の生成)、不可否と不可否の区別の引き分けの仕方、さまざまな抽象レベルで物事を推論する能力の3つの経験的観察が組み込まれている。
関連論文リスト
- FoodPuzzle: Developing Large Language Model Agents as Flavor Scientists [51.97629078968826]
本稿では,フレーバープロファイルの抽出と理解のための仮説の創出として概念化されたフレーバーサイエンスにおける科学エージェントのための新しい問題領域を提案する。
そこで本研究では,テキスト内学習と検索技術を統合したScientific Agentアプローチを提案する。
実験結果から,フレーバープロファイル予測タスクにおいて,本モデルが従来の手法をはるかに上回っていることが示唆された。
論文 参考訳(メタデータ) (2024-09-19T15:07:35Z) - Interpretability Needs a New Paradigm [49.134097841837715]
解釈可能性(英: Interpretability)とは、人間に理解可能な言葉でモデルを説明する研究である。
この議論の核心は、それぞれのパラダイムがその説明が忠実である、すなわちモデルの振舞いに忠実であることをいかに保証するかである。
この論文の立場は、信仰を警戒しながら新しいパラダイムを考えるべきだというものである。
論文 参考訳(メタデータ) (2024-05-08T19:31:06Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - Human-like Few-Shot Learning via Bayesian Reasoning over Natural
Language [7.11993673836973]
人間は幅広い概念を効率的に学習することができる。
我々はその意味で人間らしくなろうとする帰納的学習のモデルを導入する。
論文 参考訳(メタデータ) (2023-06-05T11:46:45Z) - A Quantitative Symbolic Approach to Individual Human Reasoning [0.0]
文献から得られた知見を,論理的枠組みの中で認知的原理として定式化され,理論的推論の定量的概念を確立できることを示す。
非単調推論と計算機科学の技法、すなわち、解集合プログラミング(ASP)と呼ばれる解法パラダイムを用いる。
最後に、ASP.NETの可視性推論を使って、既存の実験の効果をテストし、異なる多数派反応を説明できます。
論文 参考訳(メタデータ) (2022-05-10T16:43:47Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Think about it! Improving defeasible reasoning by first modeling the
question scenario [35.6110036360506]
決定可能な推論とは、新たな証拠を考慮して結論を覆すことができる推論の方法である。
私たちの研究目標は、デファシブルなクエリに答える前に、問題シナリオを想定することで、ニューラルモデルが同様にメリットを享受できるかどうかを問うことです。
我々のシステムであるCURIOUSは、3つの異なるデファシブル推論データセット上で新しい最先端の推論を実現する。
論文 参考訳(メタデータ) (2021-10-24T04:13:52Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - MathZero, The Classification Problem, and Set-Theoretic Type Theory [7.766921168069532]
MathZeroは正式な基礎と目的を必要としている。
古典的ブルバキ集合論的同型を集合論的依存型理論に一般化する。
論文 参考訳(メタデータ) (2020-05-12T01:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。