論文の概要: Benchmarks, Algorithms, and Metrics for Hierarchical Disentanglement
- arxiv url: http://arxiv.org/abs/2102.05185v1
- Date: Tue, 9 Feb 2021 23:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 15:32:52.346281
- Title: Benchmarks, Algorithms, and Metrics for Hierarchical Disentanglement
- Title(参考訳): 階層的ディエンタングルメントのためのベンチマーク、アルゴリズム、メトリクス
- Authors: Andrew Slavin Ross and Finale Doshi-Velez
- Abstract要約: 表現学習において、データの背後にある真真正な生成因子を解き放つアルゴリズムの開発や、それがどの程度起こるかの定量化のためのメトリクスが近年関心を集めている。
本研究では,このような階層的表現を学習するためのベンチマーク,アルゴリズム,メトリクスを開発する。
- 参考スコア(独自算出の注目度): 39.965740788237156
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In representation learning, there has been recent interest in developing
algorithms to disentangle the ground-truth generative factors behind data, and
metrics to quantify how fully this occurs. However, these algorithms and
metrics often assume that both representations and ground-truth factors are
flat, continuous, and factorized, whereas many real-world generative processes
involve rich hierarchical structure, mixtures of discrete and continuous
variables with dependence between them, and even varying intrinsic
dimensionality. In this work, we develop benchmarks, algorithms, and metrics
for learning such hierarchical representations.
- Abstract(参考訳): 表現学習では、データの背後にある地殻変動要因を解き放つアルゴリズムや、これがいかに完全に起こるかを定量化するメトリクスの開発に最近関心が寄せられている。
しかしながら、これらのアルゴリズムと測度は、表現と接地構造因子の両方が平坦で連続的で因子化されていると仮定するが、多くの実世界の生成過程は、リッチな階層構造、それらの間の依存を伴う離散変数と連続変数の混合、さらには内在的な次元性さえも含んでいる。
本研究では,このような階層表現を学習するためのベンチマーク,アルゴリズム,メトリクスを開発した。
関連論文リスト
- How Do Transformers Learn Topic Structure: Towards a Mechanistic
Understanding [56.222097640468306]
我々は、トランスフォーマーが「意味構造」を学ぶ方法の機械的理解を提供する
本稿では,ラテント・ディリクレ・アロケーション(LDA)とウィキペディア・アロケーション(ウィキペディア・データ)によってモデル化された合成データと,埋め込み層と自己保持層がトピック構造をエンコードする数学的解析を組み合わせて示す。
論文 参考訳(メタデータ) (2023-03-07T21:42:17Z) - Factorized Fusion Shrinkage for Dynamic Relational Data [14.87073454889439]
本稿では,すべての分解因子がグループ単位の核融合構造に対して動的に縮小される因子化核融合収縮モデルについて考察する。
提案手法は、推定された動的潜在因子の比較とクラスタリングにおいて、多くの好ましい特性を享受する。
本稿では、最適後部推論と計算スケーラビリティのバランスをとる構造的平均場変動推論フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-30T21:03:40Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Fuzzy clustering algorithms with distance metric learning and entropy
regularization [0.0]
本稿では,ユークリッド,シティブロック,マハラノビス距離とエントロピー正規化に基づくファジィクラスタリングアルゴリズムを提案する。
合成および実データセットに関するいくつかの実験は、ノイズの多い画像テクスチャセグメンテーションへの応用を含む、これらの適応クラスタリング手法の有用性を実証している。
論文 参考訳(メタデータ) (2021-02-18T18:19:04Z) - Metrics and continuity in reinforcement learning [34.10996560464196]
メトリクスのレンズを通してトポロジを定義するために統一的な定式化を導入する。
我々はこれらの指標の階層を確立し、マルコフ決定過程にその理論的意味を実証する。
考察した指標間の差異を示す実証的な評価で理論結果を補完する。
論文 参考訳(メタデータ) (2021-02-02T14:30:41Z) - Functorial Manifold Learning [1.14219428942199]
まず、擬似距離空間を最適化対象にマッピングする関手として多様体学習アルゴリズムを特徴付ける。
次に、この特徴付けを用いて、多様体学習損失関数の洗練された境界を証明し、多様体学習アルゴリズムの階層を構築する。
我々は,この階層の異なるレベルにおける函手として,計量多次元スケーリング,IsoMap,UMAPなど,いくつかの一般的な多様体学習アルゴリズムを表現している。
論文 参考訳(メタデータ) (2020-11-15T02:30:23Z) - Network Classifiers Based on Social Learning [71.86764107527812]
空間と時間に対して独立に訓練された分類器を結合する新しい手法を提案する。
提案したアーキテクチャは、ラベルのないデータで時間とともに予測性能を改善することができる。
この戦略は高い確率で一貫した学習をもたらすことが示され、未訓練の分類器に対して頑健な構造が得られる。
論文 参考訳(メタデータ) (2020-10-23T11:18:20Z) - Evaluating Community Detection Algorithms for Progressively Evolving
Graphs [0.4125187280299247]
本稿では,進化するコミュニティ構造を植え込んだ動的グラフの生成手法を提案する。
記述言語を通じて、望まれるコミュニティ構造を指定できる。
動的コミュニティ検出のための6つの既存アルゴリズムを実験的に評価した。
論文 参考訳(メタデータ) (2020-07-16T20:58:23Z) - A General Method for Robust Learning from Batches [56.59844655107251]
本稿では,バッチから頑健な学習を行う一般的なフレームワークについて考察し,連続ドメインを含む任意の領域に対する分類と分布推定の限界について考察する。
本手法は,一括分節分類,一括分節,単調,対数凹,ガウス混合分布推定のための,最初の頑健な計算効率の学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2020-02-25T18:53:25Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。