論文の概要: Representational Systems Theory: A Unified Approach to Encoding,
Analysing and Transforming Representations
- arxiv url: http://arxiv.org/abs/2206.03172v1
- Date: Tue, 7 Jun 2022 10:43:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 15:32:51.915543
- Title: Representational Systems Theory: A Unified Approach to Encoding,
Analysing and Transforming Representations
- Title(参考訳): 表現システム理論:表現の符号化、解析、変換への統一的アプローチ
- Authors: Daniel Raggi, Gem Stapleton, Mateja Jamnik, Aaron Stockdill, Grecia
Garcia Garcia, Peter C-H. Cheng
- Abstract要約: 表現システム理論(Representational Systems Theory)は、3つのコアの観点から様々な表現を符号化するように設計されている。
ある系における表現を別の系における表現に構造的に変換することができる。
- 参考スコア(独自算出の注目度): 3.1252164619375473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of representations is of fundamental importance to any form of
communication, and our ability to exploit them effectively is paramount. This
article presents a novel theory -- Representational Systems Theory -- that is
designed to abstractly encode a wide variety of representations from three core
perspectives: syntax, entailment, and their properties. By introducing the
concept of a construction space, we are able to encode each of these core
components under a single, unifying paradigm. Using our Representational
Systems Theory, it becomes possible to structurally transform representations
in one system into representations in another. An intrinsic facet of our
structural transformation technique is representation selection based on
properties that representations possess, such as their relative cognitive
effectiveness or structural complexity. A major theoretical barrier to
providing general structural transformation techniques is a lack of terminating
algorithms. Representational Systems Theory permits the derivation of partial
transformations when no terminating algorithm can produce a full
transformation. Since Representational Systems Theory provides a universal
approach to encoding representational systems, a further key barrier is
eliminated: the need to devise system-specific structural transformation
algorithms, that are necessary when different systems adopt different
formalisation approaches. Consequently, Representational Systems Theory is the
first general framework that provides a unified approach to encoding
representations, supports representation selection via structural
transformations, and has the potential for widespread practical application.
- Abstract(参考訳): 表現の研究はコミュニケーションのあらゆる形態において根本的に重要であり、それらを効果的に活用する能力は最重要である。
本稿では3つの中核的な視点から多種多様な表現を抽象的にエンコードするために設計された新しい理論、表現システム理論について述べる。
構成空間の概念を導入することで、それぞれのコアコンポーネントを単一の統一パラダイムでエンコードすることが可能になります。
表現システム理論を用いて、ある系における表現を別の系における表現に構造的に変換することができる。
構造変換手法の内在的な側面は、相対的な認知的効果や構造的複雑性など、表現が持つ特性に基づいた表現選択である。
一般的な構造変換技術を提供する上での大きな理論的障壁は、終了アルゴリズムの欠如である。
表現系理論は、終端アルゴリズムが完全変換を生成できない場合、部分変換の導出を可能にする。
表現系理論は、表現系を符号化するための普遍的なアプローチを提供するため、さらに重要な障壁が排除される: 異なるシステムが異なる形式化アプローチを採用する場合に必要となる、システム固有の構造変換アルゴリズムを考案する必要性。
したがって、表現システム理論は、表現を符号化するための統一的なアプローチを提供し、構造変換による表現選択をサポートし、広く実用化される可能性を持つ最初の一般的なフレームワークである。
関連論文リスト
- A Neural Rewriting System to Solve Algorithmic Problems [51.485598133884615]
本稿では,特殊なモジュールで構成されたニューラルアーキテクチャとして,書き換えシステムを実装可能であることを示す。
シンボリック・フォーミュラの簡素化を必要とする3種類のアルゴリズムタスクに対して,本モデルの評価を行った。
論文 参考訳(メタデータ) (2024-02-27T10:57:07Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at
Larger Scales [58.046982315688275]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Learning Dynamics and Structure of Complex Systems Using Graph Neural
Networks [13.509027957413409]
我々は、非線形力学系の例から時系列に適合するようにグラフニューラルネットワークを訓練した。
学習した表現とモデルコンポーネントの簡単な解釈を見出した。
我々は,信念伝達における統計的相互作用と,それに対応する学習ネットワークのパラメータ間のグラフトランスレータの同定に成功した。
論文 参考訳(メタデータ) (2022-02-22T15:58:16Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - A Systems Theory of Transfer Learning [3.5281112495479245]
我々は、移動学習を集合上の関係として定義するためにメサロヴィッチ系理論を用いる。
次に,伝達学習の一般的な性質を数学的構成として特徴づける。
その定式化にもかかわらず、我々のフレームワークは学習理論の詳細な数学や機械学習の解法を避けている。
論文 参考訳(メタデータ) (2021-07-02T17:25:42Z) - Expressiveness and machine processability of Knowledge Organization
Systems (KOS): An analysis of concepts and relations [0.0]
各知識組織システムの表現性と機械処理性の両方の可能性は、その構造規則によって広範囲に規制されている。
オントロジーは多種多様な関係を明示的に定義し、その性質上機械処理可能である。
論文 参考訳(メタデータ) (2020-03-11T12:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。