論文の概要: Structural Information Learning Machinery: Learning from Observing,
Associating, Optimizing, Decoding, and Abstracting
- arxiv url: http://arxiv.org/abs/2001.09637v1
- Date: Mon, 27 Jan 2020 09:14:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 07:49:18.734025
- Title: Structural Information Learning Machinery: Learning from Observing,
Associating, Optimizing, Decoding, and Abstracting
- Title(参考訳): 構造情報学習機械:観察、連想、最適化、デコード、抽象化からの学習
- Authors: Angsheng Li
- Abstract要約: 構造情報学習装置(SiLeM)のモデルを提案する。
SiLeMマシンは自然の法則や規則を学ぶ。
- 参考スコア(独自算出の注目度): 0.913755431537592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the present paper, we propose the model of {\it structural information
learning machines} (SiLeM for short), leading to a mathematical definition of
learning by merging the theories of computation and information. Our model
shows that the essence of learning is {\it to gain information}, that to gain
information is {\it to eliminate uncertainty} embedded in a data space, and
that to eliminate uncertainty of a data space can be reduced to an optimization
problem, that is, an {\it information optimization problem}, which can be
realized by a general {\it encoding tree method}. The principle and criterion
of the structural information learning machines are maximization of {\it
decoding information} from the data points observed together with the
relationships among the data points, and semantical {\it interpretation} of
syntactical {\it essential structure}, respectively. A SiLeM machine learns the
laws or rules of nature. It observes the data points of real world, builds the
{\it connections} among the observed data and constructs a {\it data space},
for which the principle is to choose the way of connections of data points so
that the {\it decoding information} of the data space is maximized, finds the
{\it encoding tree} of the data space that minimizes the dynamical uncertainty
of the data space, in which the encoding tree is hence referred to as a {\it
decoder}, due to the fact that it has already eliminated the maximum amount of
uncertainty embedded in the data space, interprets the {\it semantics} of the
decoder, an encoding tree, to form a {\it knowledge tree}, extracts the {\it
remarkable common features} for both semantical and syntactical features of the
modules decoded by a decoder to construct {\it trees of abstractions},
providing the foundations for {\it intuitive reasoning} in the learning when
new data are observed.
- Abstract(参考訳): 本稿では,計算理論と情報理論を融合して学習を数学的に定義する「it構造情報学習機械」(略してsilem)のモデルを提案する。
我々のモデルは、学習の本質は情報を得ることであり、情報を得ることは、データ空間に埋め込まれた不確実性を排除することであり、データ空間の不確実性を取り除くことは、最適化問題、すなわち、一般的な木構造法で実現可能な情報最適化問題に還元できることを示している。
構造情報学習マシンの原理と基準は、データポイント間の関係とともに観測されたデータポイントから {\it decoding information} を最大化すること、および構文的 {\it essential structure} の意味論的 {\it interpretation} である。
SiLeMマシンは自然の法則や規則を学ぶ。
It observes the data points of real world, builds the {\it connections} among the observed data and constructs a {\it data space}, for which the principle is to choose the way of connections of data points so that the {\it decoding information} of the data space is maximized, finds the {\it encoding tree} of the data space that minimizes the dynamical uncertainty of the data space, in which the encoding tree is hence referred to as a {\it decoder}, due to the fact that it has already eliminated the maximum amount of uncertainty embedded in the data space, interprets the {\it semantics} of the decoder, an encoding tree, to form a {\it knowledge tree}, extracts the {\it remarkable common features} for both semantical and syntactical features of the modules decoded by a decoder to construct {\it trees of abstractions}, providing the foundations for {\it intuitive reasoning} in the learning when new data are observed.
関連論文リスト
- Knowledge prompt chaining for semantic modeling [0.0]
本稿では,新しいセマンティック・モデリング・フレームワーク,ナレッジ・プロンプト・チェインを提案する。
グラフ構造化された知識をシリアライズし、LSMに適切に注入することができる。
実験結果に基づいて,本手法は既存の先行技術よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-15T03:00:57Z) - Topology-aware Reinforcement Feature Space Reconstruction for Graph Data [22.5530178427691]
優れた機能領域の再構築は、データのAI能力の向上、モデルの一般化の改善、下流MLモデルの可用性の向上に不可欠である。
我々は、トポロジ対応強化学習を用いて、グラフデータの特徴空間再構成を自動化し、最適化する。
提案手法では,コア部分グラフ抽出とグラフニューラルネットワーク(GNN)の併用により,トポロジ的特徴を符号化し,計算複雑性を低減する。
論文 参考訳(メタデータ) (2024-11-08T18:01:05Z) - Dissecting embedding method: learning higher-order structures from data [0.0]
データ学習のための幾何学的深層学習法は、しばしば特徴空間の幾何学に関する仮定のセットを含む。
これらの仮定と、データが離散的で有限であるという仮定は、いくつかの一般化を引き起こし、データとモデルの出力の間違った解釈を生み出す可能性がある。
論文 参考訳(メタデータ) (2024-10-14T08:19:39Z) - Struct-X: Enhancing Large Language Models Reasoning with Structured Data [38.558614152006975]
構造Xは5つの重要なフェーズを通して動作する:read-model-fill-reflect-reason'
構造化データをグラフ埋め込みを用いて位相空間にエンコードする。
行方不明のエンティティ情報を知識検索モジュールで埋める。
最後のフェーズでは、選択したトークンでトポロジネットワークを構築する。
論文 参考訳(メタデータ) (2024-07-17T13:06:25Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Deep Equilibrium Assisted Block Sparse Coding of Inter-dependent
Signals: Application to Hyperspectral Imaging [71.57324258813675]
相互依存信号のデータセットは、列が強い依存を示す行列として定義される。
ニューラルネットワークは、事前に構造として機能し、基礎となる信号相互依存性を明らかにするために使用される。
ディープ・アンローリングとディープ・平衡に基づくアルゴリズムが開発され、高度に解釈可能で簡潔なディープ・ラーニング・ベース・アーキテクチャを形成する。
論文 参考訳(メタデータ) (2022-03-29T21:00:39Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - Representation Learning for Sequence Data with Deep Autoencoding
Predictive Components [96.42805872177067]
本稿では,シーケンスデータの有用な表現が潜在空間における単純な構造を示すべきという直感に基づく,シーケンスデータの自己教師型表現学習法を提案する。
我々は,過去と将来のウィンドウ間の相互情報である潜在特徴系列の予測情報を最大化することにより,この潜時構造を奨励する。
提案手法は,ノイズの多い動的システムの潜時空間を復元し,タスク予測のための予測特徴を抽出し,エンコーダを大量の未ラベルデータで事前訓練する場合に音声認識を改善する。
論文 参考訳(メタデータ) (2020-10-07T03:34:01Z) - Auto-Encoding Twin-Bottleneck Hashing [141.5378966676885]
本稿では,効率よく適応的なコード駆動グラフを提案する。
自動エンコーダのコンテキストでデコードすることで更新される。
ベンチマークデータセットの実験は、最先端のハッシュ手法よりもフレームワークの方が優れていることを明らかに示しています。
論文 参考訳(メタデータ) (2020-02-27T05:58:12Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。