論文の概要: FUSE: Measure-Theoretic Compact Fuzzy Set Representation for Taxonomy Expansion
- arxiv url: http://arxiv.org/abs/2506.08409v1
- Date: Tue, 10 Jun 2025 03:28:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.358333
- Title: FUSE: Measure-Theoretic Compact Fuzzy Set Representation for Taxonomy Expansion
- Title(参考訳): FUSE: 分類学拡張のための理論的コンパクトファジィ集合表現
- Authors: Fred Xu, Song Jiang, Zijie Huang, Xiao Luo, Shichang Zhang, Adrian Chen, Yizhou Sun,
- Abstract要約: 本稿では,その体積近似をファジィ集合として用いた集合表現学習の健全かつ効率的な定式化を提案する。
結果として生じる埋め込みフレームワークであるFuzzy Set Embedding (FUSE)は、すべての集合演算を満足し、基礎となるファジィ集合をコンパクトに近似する。
- 参考スコア(独自算出の注目度): 36.714348668366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Taxonomy Expansion, which models complex concepts and their relations, can be formulated as a set representation learning task. The generalization of set, fuzzy set, incorporates uncertainty and measures the information within a semantic concept, making it suitable for concept modeling. Existing works usually model sets as vectors or geometric objects such as boxes, which are not closed under set operations. In this work, we propose a sound and efficient formulation of set representation learning based on its volume approximation as a fuzzy set. The resulting embedding framework, Fuzzy Set Embedding (FUSE), satisfies all set operations and compactly approximates the underlying fuzzy set, hence preserving information while being efficient to learn, relying on minimum neural architecture. We empirically demonstrate the power of FUSE on the task of taxonomy expansion, where FUSE achieves remarkable improvements up to 23% compared with existing baselines. Our work marks the first attempt to understand and efficiently compute the embeddings of fuzzy sets.
- Abstract(参考訳): 複雑な概念とその関係をモデル化した分類学拡張は、集合表現学習タスクとして定式化することができる。
集合の一般化、ファジィ集合は不確実性を取り入れ、意味論的概念の中の情報を測り、概念モデリングに適したものにする。
既存の作業は通常、ボックスのようなベクトルや幾何学的対象として集合をモデル化する。
本研究では,その体積近似をファジィ集合とする集合表現学習の健全かつ効率的な定式化を提案する。
結果として生じる組み込みフレームワークであるFuzzy Set Embedding (FUSE)は、すべてのセット操作を満足し、基礎となるファジィ集合をコンパクトに近似する。
我々は,FUSEが既存のベースラインに比べて最大23%の大幅な改善を達成している分類学拡張の課題において,FUSEの力を実証的に実証した。
我々の研究はファジィ集合の埋め込みを理解し、効率的に計算する最初の試みである。
関連論文リスト
- Dynamic Logistic Ensembles with Recursive Probability and Automatic Subset Splitting for Enhanced Binary Classification [2.7396014165932923]
本稿では,動的ロジスティックアンサンブルモデルを用いた二項分類手法を提案する。
我々は、データセットを複数のサブセットに自動的に分割するアルゴリズムを開発し、分類精度を高めるためにロジスティックモデルのアンサンブルを構築する。
この作業は計算効率と理論厳密さのバランスを取り、複雑な分類タスクに対して堅牢で解釈可能なソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-27T00:22:55Z) - Enhancing Neural Subset Selection: Integrating Background Information into Set Representations [53.15923939406772]
対象値が入力集合とサブセットの両方に条件付けされている場合、スーパーセットのテクスティ不変な統計量を関心のサブセットに組み込むことが不可欠であることを示す。
これにより、出力値がサブセットとその対応するスーパーセットの置換に不変であることを保証する。
論文 参考訳(メタデータ) (2024-02-05T16:09:35Z) - Leveraging Linear Independence of Component Classifiers: Optimizing Size
and Prediction Accuracy for Online Ensembles [3.97048491084787]
本研究では,分類者の投票の線形独立性に根ざした新たな視点を導入し,アンサンブルサイズと予測精度の相互作用を分析する。
本稿では,線形独立投票の目標確率を確保するために必要となる最小アンサンブルサイズを決定する手法を提案する。
驚くべきことに、計算された理想アンサンブルサイズは、あるデータセットに対する経験的な結果から逸脱し、他の要因の影響を強調している。
論文 参考訳(メタデータ) (2023-08-27T18:38:09Z) - Exploiting Inferential Structure in Neural Processes [15.058161307401864]
ニューラルネットワーク(NP)は、コンテキストセットに基づいて高速な適応を行う能力によって、魅力的である。
我々は、NPの潜伏変数にグラフィカルモデルで定義されたリッチな事前定義を与えることができるフレームワークを提供する。
論文 参考訳(メタデータ) (2023-06-27T03:01:43Z) - Understanding and Constructing Latent Modality Structures in Multi-modal
Representation Learning [53.68371566336254]
優れたパフォーマンスの鍵は、完全なモダリティアライメントではなく、有意義な潜在モダリティ構造にある、と我々は主張する。
具体的には,1)モダリティ内正規化のための深い特徴分離損失,2)モダリティ間正規化のためのブラウン橋損失,3)モダリティ内正規化およびモダリティ間正規化のための幾何学的整合損失を設計する。
論文 参考訳(メタデータ) (2023-03-10T14:38:49Z) - Linear Spaces of Meanings: Compositional Structures in Vision-Language
Models [110.00434385712786]
事前学習された視覚言語モデル(VLM)からのデータ埋め込みにおける構成構造について検討する。
まず,幾何学的観点から構成構造を理解するための枠組みを提案する。
次に、これらの構造がVLM埋め込みの場合の確率論的に持つものを説明し、実際に発生する理由の直観を提供する。
論文 参考訳(メタデータ) (2023-02-28T08:11:56Z) - SetVAE: Learning Hierarchical Composition for Generative Modeling of
Set-Structured Data [27.274328701618]
集合の階層的変分オートエンコーダであるSetVAEを提案する。
セットエンコーディングの最近の進歩に動機づけられて、我々は最初にセットを分割し、元のカーディナリティにパーティションを投影する注意深いモジュールの上にSetVAEを構築します。
我々は,本モデルが集合のサイズを示さずに一般化し,監督なしに興味深い部分集合関係を学習できることを実証する。
論文 参考訳(メタデータ) (2021-03-29T14:01:18Z) - RatE: Relation-Adaptive Translating Embedding for Knowledge Graph
Completion [51.64061146389754]
複素空間における新たな重み付き積の上に構築された関係適応変換関数を提案する。
次に、関係適応型翻訳埋め込み(RatE)アプローチを示し、各グラフを3倍にスコアする。
論文 参考訳(メタデータ) (2020-10-10T01:30:30Z) - Generalising Recursive Neural Models by Tensor Decomposition [12.069862650316262]
テンソル型定式化を利用した構造文脈のモデルアグリゲーションに対する一般的なアプローチを提案する。
パラメータ空間の大きさの指数関数的成長は、タッカー分解に基づく近似によって制御できることを示す。
これにより、隠れたサイズ、計算複雑性、モデル一般化によって制御される符号化の表現性の間のトレードオフを効果的に制御できる。
論文 参考訳(メタデータ) (2020-06-17T17:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。