論文の概要: Finite Confluences and Closed Pattern Mining
- arxiv url: http://arxiv.org/abs/2102.11924v1
- Date: Sun, 14 Feb 2021 09:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:40:31.814013
- Title: Finite Confluences and Closed Pattern Mining
- Title(参考訳): 有限合流と閉パターンマイニング
- Authors: Henry Soldano
- Abstract要約: 閉域作用素に関する良好な性質を有する格子構造よりも弱い部分順序構造を提案し,検討する。
これらの構造を調べる主な動機は、要素が連結している部分への格子の減少を可能にすることである。
また、ガロア接続に関わる格子の1つが閉鎖作用素の範囲の構造にどのように影響するかについても検討した。
- 参考スコア(独自算出の注目度): 0.114219428942199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The purpose of this article is to propose and investigate a partial order
structure weaker than the lattice structure and which have nice properties
regarding closure operators. We extend accordingly closed pattern mining and
formal concept analysis to such structures we further call confluences. The
primary motivation for investigating these structures is that it allows to
reduce a lattice to a part whose elements are connected, as in some graph,
still preserving a useful characterization of closure operators. Our
investigation also considers how reducing one of the lattice involved in a
Galois connection affects the structure of the closure operators ranges. When
extending this way formal concept analysis we will focus on the intensional
space, i.e. in reducing the pattern language, while recent investigations
rather explored the reduction of the extensional space to connected elements.
- Abstract(参考訳): 本論文の目的は, 格子構造よりも弱い部分次構造と, 閉包演算子に関する良好な性質を有する部分次構造を提案し, 検討することである。
我々は、パターンマイニングと形式的概念分析をそのような構造に拡張し、さらに共役と呼ぶ。
これらの構造を研究する主な動機は、あるグラフのように要素が連結している部分への格子を減少させることで、閉包作用素の有用な特徴づけを保っていることである。
また,ガロア接続に関わる格子の1つが閉包作用素の構造に与える影響についても検討した。
この方法で形式的概念解析を拡張する際には、エンテンソル空間、すなわち、焦点をあてる。
パターン言語を減らすために、最近の研究はむしろ連結要素への拡張空間の減少を探求した。
関連論文リスト
- Compositional Structures in Neural Embedding and Interaction Decompositions [101.40245125955306]
ニューラルネットワークにおけるベクトル埋め込みにおける線形代数構造間の基本的な対応について述べる。
相互作用分解」の観点から構成構造の特徴づけを導入する。
モデルの表現の中にそのような構造が存在するためには、必要かつ十分な条件を確立する。
論文 参考訳(メタデータ) (2024-07-12T02:39:50Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Rank Collapse Causes Over-Smoothing and Over-Correlation in Graph Neural Networks [3.566568169425391]
深さが大きくなると、ノード表現はアグリゲーション関数に依存するが特徴変換には依存しない低次元部分空間に支配されることが示される。
すべてのアグリゲーション関数について、ノード表現のランクは崩壊し、特定のアグリゲーション関数に対して過度に滑らかになる。
論文 参考訳(メタデータ) (2023-08-31T15:22:31Z) - A note on the connectedness property of union-free generic sets of
partial orders [0.0]
このノートはBlocherらによって導入された連結性について記述し、証明している[2023]
連結性は、ユニオンフリーなジェネリック集合に関する構造的な洞察を与える。
論文 参考訳(メタデータ) (2023-04-19T10:17:18Z) - Generating Compressed Combinatory Proof Structures -- An Approach to
Automated First-Order Theorem Proving [0.0]
ここでは、自動一階述語証明に対する「証明構造としての組合せ項」のアプローチを紹介する。
このアプローチは、凝縮した分枝に根付いた証明構造の項ビューと接続法に基づいて構築される。
論文 参考訳(メタデータ) (2022-09-26T11:23:17Z) - Structure Amplification on Multi-layer Stochastic Block Models [16.53851254884497]
本稿では,複雑なネットワークに隠された構造を明らかにする一般的な構造増幅手法を提案する。
HiCODEは、隠れた機能が現れるようにランダム化することで、支配的な構造を徐々に弱める。
繰り返し還元法が隠れ構造物の発見を促進することができるという理論的証明を提供する。
論文 参考訳(メタデータ) (2021-07-31T02:11:47Z) - Reducing Drift in Structure From Motion Using Extended Features [82.37566035407689]
低周波長範囲誤差(ドリフト)は3次元構造における運動からの固有問題である。
本研究では,平面や消失点などの拡張された構造特徴を用いて,スケールと位置のドリフトを劇的に低減する手法を提案する。
論文 参考訳(メタデータ) (2020-08-27T17:59:04Z) - Models of zero-range interaction for the bosonic trimer at unitarity [91.3755431537592]
ゼロ範囲の2体相互作用によって相互に結合された同一ボソンからなる3体系に対する量子ハミルトニアンの構成について述べる。
プレゼンテーションの大部分では、無限の散乱長が考慮される。
論文 参考訳(メタデータ) (2020-06-03T17:54:43Z) - A General Framework for Consistent Structured Prediction with Implicit
Loss Embeddings [113.15416137912399]
構造化予測のための理論的・アルゴリズム的な枠組みを提案し,解析する。
問題に対して適切な幾何を暗黙的に定義する、損失関数の大規模なクラスについて検討する。
出力空間を無限の濃度で扱うとき、推定子の適切な暗黙の定式化が重要であることが示される。
論文 参考訳(メタデータ) (2020-02-13T10:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。