論文の概要: Logifold: A Geometrical Foundation of Ensemble Machine Learning
- arxiv url: http://arxiv.org/abs/2407.16177v1
- Date: Tue, 23 Jul 2024 04:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 18:35:54.541075
- Title: Logifold: A Geometrical Foundation of Ensemble Machine Learning
- Title(参考訳): Logifold: エンサンブル機械学習の幾何学的基礎
- Authors: Inkee Jung, Siu-Cheong Lau,
- Abstract要約: データセット理解のための局所的・局所的・測度論的アプローチを提案する。
中心となる考え方は、ロジフォールド構造を定式化し、制限されたドメインを持つネットワークモデルをデータセットの局所チャートとして解釈することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a local-to-global and measure-theoretical approach to understanding datasets. The core idea is to formulate a logifold structure and to interpret network models with restricted domains as local charts of datasets. In particular, this provides a mathematical foundation for ensemble machine learning. Our experiments demonstrate that logifolds can be implemented to identify fuzzy domains and improve accuracy compared to taking average of model outputs. Additionally, we provide a theoretical example of a logifold, highlighting the importance of restricting to domains of classifiers in an ensemble.
- Abstract(参考訳): データセット理解のための局所的・局所的・測度論的アプローチを提案する。
中心となる考え方は、ロジフォールド構造を定式化し、制限されたドメインを持つネットワークモデルをデータセットの局所チャートとして解釈することである。
特に、これはアンサンブル機械学習の数学的基礎を提供する。
本実験では, ファジィ領域を同定し, モデル出力の平均値と比較して精度を向上させるために, ロジフォールドを実装できることを実証した。
さらに、ロジフォールドの理論的な例を示し、アンサンブル内の分類器の領域に制限を加えることの重要性を強調している。
関連論文リスト
- A logifold structure on measure space [0.0]
我々は,データセットを理解するための局所的・局所的・測度論的アプローチを開発する。
本研究では,ファジィ領域の探索やデータ分類問題の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2024-05-09T01:38:38Z) - Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Tackling Computational Heterogeneity in FL: A Few Theoretical Insights [68.8204255655161]
我々は、計算異種データの形式化と処理を可能にする新しい集約フレームワークを導入し、分析する。
提案するアグリゲーションアルゴリズムは理論的および実験的予測から広範囲に解析される。
論文 参考訳(メタデータ) (2023-07-12T16:28:21Z) - Gated Domain Units for Multi-source Domain Generalization [14.643490853965385]
分散シフト(DS)は、テスト時のデータセットとトレーニング時のデータセットが異なる場合に発生する。
GDU(Gated Domain Units)で構成されるモジュール型ニューラルネットワークレイヤを導入し,各潜伏する基本分布の表現を学習する。
推論中、各基本分布の表現と新しい観測結果を比較することで、重み付けされた学習機械のアンサンブルを作成することができる。
論文 参考訳(メタデータ) (2022-06-24T18:12:38Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Incorporation of Deep Neural Network & Reinforcement Learning with
Domain Knowledge [0.0]
本稿では,ニューラルネットワークを用いたモデル構築において,ドメイン情報を組み込んだ手法について述べる。
空間データの統合は、知識理解モデルの開発や、ヒューマン・マシン・インタフェースと強化学習を活用することで情報理解を支援する他の分野において、一意に重要である。
論文 参考訳(メタデータ) (2021-07-29T17:29:02Z) - A Topological-Framework to Improve Analysis of Machine Learning Model
Performance [5.3893373617126565]
本稿では、データセットをモデルが動作する「空間」として扱う機械学習モデルを評価するためのフレームワークを提案する。
本稿では,各サブポピュレーション間でのモデル性能の保存と解析に有用なトポロジカルデータ構造であるプレシーブについて述べる。
論文 参考訳(メタデータ) (2021-07-09T23:11:13Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。