論文の概要: A Commentary on the Unsupervised Learning of Disentangled
Representations
- arxiv url: http://arxiv.org/abs/2007.14184v1
- Date: Tue, 28 Jul 2020 13:13:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:26:02.755173
- Title: A Commentary on the Unsupervised Learning of Disentangled
Representations
- Title(参考訳): 不整合表現の教師なし学習に関する解説
- Authors: Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar R\"atsch,
Sylvain Gelly, Bernhard Sch\"olkopf, Olivier Bachem
- Abstract要約: 不整合表現の教師なし学習の目標は、データの変化の独立した説明的要因を、監督にアクセスできることなく分離することである。
本稿では,非教師なしの非教師付き表現の学習が帰納的バイアスなしでは基本的に不可能であることを示す理論的結果について議論する。
- 参考スコア(独自算出の注目度): 63.042651834453544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of the unsupervised learning of disentangled representations is to
separate the independent explanatory factors of variation in the data without
access to supervision. In this paper, we summarize the results of Locatello et
al., 2019, and focus on their implications for practitioners. We discuss the
theoretical result showing that the unsupervised learning of disentangled
representations is fundamentally impossible without inductive biases and the
practical challenges it entails. Finally, we comment on our experimental
findings, highlighting the limitations of state-of-the-art approaches and
directions for future research.
- Abstract(参考訳): 不連続表現の教師なし学習の目的は、管理を受けることなく、データの変化の独立した説明的要因を分離することである。
本稿では,locationllo et al., 2019の結果を要約し,その実践者への影響について考察する。
本稿では,不連続表現の教師なし学習が,帰納的バイアスやそれに伴う実践的課題なしには基本的に不可能であることを示す理論的結果について考察する。
最後に,我々は実験結果についてコメントし,最先端のアプローチの限界と今後の研究の方向性を強調した。
関連論文リスト
- Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Embarrassingly Simple Unsupervised Aspect Based Sentiment Tuple Extraction [0.6429156819529861]
文中のアスペクト項に対する意見項とそれに対応する感情極性を取り出すための、単純で新しい教師なしのアプローチを提案する。
4つのベンチマークデータセットを用いて実験を行った結果,オブジェクト指向の意見単語を抽出する性能が示された。
論文 参考訳(メタデータ) (2024-04-21T19:20:42Z) - Robust Contrastive Learning With Theory Guarantee [25.57187964518637]
コントラスト学習(CL)は,ラベル情報なしで意味のある特徴を抽出できる自己指導型学習パラダイムである。
我々の研究は厳密な理論を発展させ、教師なし損失のどの成分が教師なし損失の堅牢な改善に役立つかを識別する。
論文 参考訳(メタデータ) (2023-11-16T08:39:58Z) - Augment to Interpret: Unsupervised and Inherently Interpretable Graph
Embeddings [0.0]
本稿では,グラフ表現学習について検討し,意味論を保存したデータ拡張を学習し,解釈を生成できることを示す。
私たちがINGENIOUSと名付けた我々のフレームワークは、本質的に解釈可能な埋め込みを生成し、コストのかかるポストホック分析の必要性を排除します。
論文 参考訳(メタデータ) (2023-09-28T16:21:40Z) - A Double Machine Learning Approach to Combining Experimental and Observational Data [59.29868677652324]
実験と観測を組み合わせた二重機械学習手法を提案する。
我々の枠組みは、より軽度の仮定の下で、外部の妥当性と無知の違反を検査する。
論文 参考訳(メタデータ) (2023-07-04T02:53:11Z) - On Causally Disentangled Representations [18.122893077772993]
本稿では,不整合因果過程の概念を用いて,不整合表現の分析を行う。
我々の測定値が不整合因果過程のデシダラタを捉えていることが示される。
本研究では,このメトリクスとデータセットを用いて,非絡み合った表現学習者の状態に関する実証的研究を行い,因果的視点から評価する。
論文 参考訳(メタデータ) (2021-12-10T18:56:27Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Disambiguation of weak supervision with exponential convergence rates [88.99819200562784]
教師付き学習では、データは不完全で差別的な情報で注釈付けされる。
本稿では,ある入力から潜在的な対象のセットが与えられる弱い監督の事例である部分的ラベリングに焦点を当てる。
弱い監督から完全な監督を回復する実証的曖昧化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-04T18:14:32Z) - A Sober Look at the Unsupervised Learning of Disentangled
Representations and their Evaluation [63.042651834453544]
モデルとデータの両方に帰納的バイアスを伴わずに,非教師なしの非教師付き表現学習は不可能であることを示す。
異なる手法は、対応する損失によって「強化」された特性を効果的に強制するが、よく見分けられたモデルは監督なしでは特定できないように見える。
以上の結果から,遠絡学習における今後の研究は,帰納的バイアスと(単純に)監督の役割を明確化すべきであることが示唆された。
論文 参考訳(メタデータ) (2020-10-27T10:17:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。