論文の概要: Formalising Concepts as Grounded Abstractions
- arxiv url: http://arxiv.org/abs/2101.05125v1
- Date: Wed, 13 Jan 2021 15:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 07:58:47.756858
- Title: Formalising Concepts as Grounded Abstractions
- Title(参考訳): 接地抽象としてのホルマライジング概念
- Authors: Stephen Clark, Alexander Lerchner, Tamara von Glehn, Olivier Tieleman,
Richard Tanburn, Misha Dashevskiy, Matko Bosnjak
- Abstract要約: このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
- 参考スコア(独自算出の注目度): 68.24080871981869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of concept has been studied for centuries, by philosophers,
linguists, cognitive scientists, and researchers in artificial intelligence
(Margolis & Laurence, 1999). There is a large literature on formal,
mathematical models of concepts, including a whole sub-field of AI -- Formal
Concept Analysis -- devoted to this topic (Ganter & Obiedkov, 2016). Recently,
researchers in machine learning have begun to investigate how methods from
representation learning can be used to induce concepts from raw perceptual data
(Higgins, Sonnerat, et al., 2018). The goal of this report is to provide a
formal account of concepts which is compatible with this latest work in deep
learning.
The main technical goal of this report is to show how techniques from
representation learning can be married with a lattice-theoretic formulation of
conceptual spaces. The mathematics of partial orders and lattices is a standard
tool for modelling conceptual spaces (Ch.2, Mitchell (1997), Ganter and
Obiedkov (2016)); however, there is no formal work that we are aware of which
defines a conceptual lattice on top of a representation that is induced using
unsupervised deep learning (Goodfellow et al., 2016). The advantages of
partially-ordered lattice structures are that these provide natural mechanisms
for use in concept discovery algorithms, through the meets and joins of the
lattice.
- Abstract(参考訳): 概念の概念は数世紀にわたって哲学者、言語学者、認知科学者、人工知能の研究者によって研究されてきた(margolis & laurence, 1999)。
概念の形式的、数学的モデルに関する多くの文献があり、aiのすべてのサブフィールド -- 形式的概念分析 -- がこのトピックに捧げられている(ganter & obiedkov, 2016)。
近年、機械学習の研究者は、表現学習から生の知覚データ(higgins, sonnerat, et al., 2018)から概念を誘導する方法について研究を始めた。
本報告の目的は、このディープラーニングにおける最新の研究と互換性のある概念の正式な説明を提供することである。
本報告の主な技術的目標は,表現学習の技法を格子理論による概念空間の定式化と組み合わせることである。
部分順序と格子の数学は、概念空間をモデル化するための標準的なツール(ch.2, mitchell (1997), ganter and obiedkov (2016))であるが、教師なしの深層学習を用いて誘導される表現の上に概念格子を定義する形式的な研究は、我々が気づいていない(goodfellow et al., 2016)。
部分順序格子構造の利点は、これらが格子の交わりと結合を通して概念発見アルゴリズムで使用される自然なメカニズムを提供することである。
関連論文リスト
- What Machine Learning Tells Us About the Mathematical Structure of Concepts [0.0]
この研究は、各フレームワークがどのようにモデリング概念に対して明確な数学的視点を提供するかを強調している。
この研究は、人間の認知と人工知能の複雑な関係の理解を深めることを目的として、学際対話の重要性を強調している。
論文 参考訳(メタデータ) (2024-08-28T03:30:22Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Pregeometry, Formal Language and Constructivist Foundations of Physics [0.0]
我々は、量子幾何学の新しい概念と既存の概念が基礎となる前幾何学構造のメタ物理について論じる。
我々は、形式言語、特にホモトピー型理論の枠組みが前幾何学理論の概念的構成要素を提供することを示す証拠に注意を向ける。
論文 参考訳(メタデータ) (2023-11-07T13:19:29Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Artificial Cognitively-inspired Generation of the Notion of Topological
Group in the Context of Artificial Mathematical Intelligence [0.0]
位相群の基本数学的概念に対する明示的な人工生成(あるいは概念計算)を提供する。
位相群の概念は、3つの異なる人工的な仕様によって明確に生成される。
論文 参考訳(メタデータ) (2021-12-05T01:39:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。