論文の概要: A Deeper Look at the Unsupervised Learning of Disentangled
Representations in $\beta$-VAE from the Perspective of Core Object
Recognition
- arxiv url: http://arxiv.org/abs/2005.07114v1
- Date: Sat, 25 Apr 2020 08:14:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 21:26:58.363843
- Title: A Deeper Look at the Unsupervised Learning of Disentangled
Representations in $\beta$-VAE from the Perspective of Core Object
Recognition
- Title(参考訳): コアオブジェクト認識の観点から見た$\beta$-vaeにおける不連続表現の教師なし学習
- Authors: Harshvardhan Sikka
- Abstract要約: コアオブジェクト認識(Core Object Recognition)として知られる、外見の違いに拘わらず、物体を認識する能力は、人間の知覚の重要な部分を形成する。
人工的な知覚設定において、物体識別タスクに挑戦するために、様々な計算パーセプチュアルモデルが構築されている。
この論文は変分オートエンコーダ(VAE, $beta$-VAE)の一般化を探求する研究プロジェクトを構成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to recognize objects despite there being differences in
appearance, known as Core Object Recognition, forms a critical part of human
perception. While it is understood that the brain accomplishes Core Object
Recognition through feedforward, hierarchical computations through the visual
stream, the underlying algorithms that allow for invariant representations to
form downstream is still not well understood. (DiCarlo et al., 2012) Various
computational perceptual models have been built to attempt and tackle the
object identification task in an artificial perceptual setting. Artificial
Neural Networks, computational graphs consisting of weighted edges and
mathematical operations at vertices, are loosely inspired by neural networks in
the brain and have proven effective at various visual perceptual tasks,
including object characterization and identification. (Pinto et al., 2008)
(DiCarlo et al., 2012) For many data analysis tasks, learning representations
where each dimension is statistically independent and thus disentangled from
the others is useful. If the underlying generative factors of the data are also
statistically independent, Bayesian inference of latent variables can form
disentangled representations. This thesis constitutes a research project
exploring a generalization of the Variational Autoencoder (VAE), $\beta$-VAE,
that aims to learn disentangled representations using variational inference.
$\beta$-VAE incorporates the hyperparameter $\beta$, and enforces conditional
independence of its bottleneck neurons, which is in general not compatible with
the statistical independence of latent variables. This text examines this
architecture, and provides analytical and numerical arguments, with the goal of
demonstrating that this incompatibility leads to a non-monotonic inference
performance in $\beta$-VAE with a finite optimal $\beta$.
- Abstract(参考訳): コアオブジェクト認識と呼ばれる外観の違いがあるにもかかわらず、物体を認識する能力は、人間の知覚の重要な部分を形成する。
脳はフィードフォワードを通じてコアオブジェクト認識を行っていると理解されているが、ビジュアルストリームを通じて階層的な計算を行うが、不変表現を下流で形成できる基礎となるアルゴリズムはまだよく分かっていない。
(DiCarloら、2012年)
物体識別タスクを人工的な知覚設定で試み、取り組むために、様々な計算知覚モデルが構築されている。
重み付きエッジと頂点での数学的操作からなる計算グラフである人工ニューラルネットワークは、脳内のニューラルネットワークにゆるくインスパイアされており、オブジェクトのキャラクタリゼーションや識別を含む様々な視覚知覚タスクにおいて有効であることが証明されている。
(Pinto et al., 2008) (DiCarlo et al., 2012) 多くのデータ解析タスクでは、各次元が統計的に独立であり、他の次元から切り離された学習表現が有用である。
データの基礎となる生成因子が統計的に独立であれば、潜伏変数のベイズ推定は非絡み合い表現を形成することができる。
この論文は変分オートエンコーダ(VAE, $\beta$-VAE)の一般化を探求する研究プロジェクトを構成する。
_\beta$-vae はハイパーパラメータ $\beta$ を組み込み、ボトルネックニューロンの条件付き独立性を強制するが、一般的には潜在変数の統計的独立とは相容れない。
このテキストは、このアーキテクチャを検証し、解析的および数値的な議論を提供し、この不整合性が有限の最適$\beta$-VAEの非単調推論性能をもたらすことを示す。
関連論文リスト
- $α$-TCVAE: On the relationship between Disentanglement and Diversity [21.811889512977924]
本稿では,新しい全相関(TC)下界を用いて最適化された変分オートエンコーダである$alpha$-TCVAEを紹介する。
本稿では,不整合表現がより優れた生成能力と多様性をもたらすという考えを支持する定量的分析について述べる。
以上の結果から,$alpha$-TCVAEはベースラインよりも不整合表現を一貫して学習し,より多様な観測結果を生成することが示された。
論文 参考訳(メタデータ) (2024-11-01T13:50:06Z) - Application of the representative measure approach to assess the reliability of decision trees in dealing with unseen vehicle collision data [0.6571063542099526]
代表的データセットは、人工知能(AI)開発の軌跡を形成するための基盤となる。
本稿では,決定木の理論的観点からデータセット類似性を評価するために,$varepsilon$-representativeness法の信頼性について検討する。
我々は,XGboostの車両衝突データを用いて,実験結果を拡張した。
論文 参考訳(メタデータ) (2024-04-15T08:06:54Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Gaussian Mixture Models for Affordance Learning using Bayesian Networks [50.18477618198277]
Affordancesはアクション、オブジェクト、エフェクト間の関係の基本的な記述である。
本稿では,世界を探究し,その感覚経験から自律的にこれらの余裕を学習するエンボディエージェントの問題にアプローチする。
論文 参考訳(メタデータ) (2024-02-08T22:05:45Z) - Object-centric architectures enable efficient causal representation
learning [51.6196391784561]
観測対象が複数の物体である場合, 生成関数はもはや注入的ではなく, 実際に乱れは生じないことを示す。
スパース摂動からの弱い監督を利用して各オブジェクトのプロパティを乱すオブジェクト中心アーキテクチャを開発する。
このアプローチはユークリッド空間にエンコードする同等のアプローチよりもはるかに少ない摂動を必要とするという意味で、よりデータ効率が高い。
論文 参考訳(メタデータ) (2023-10-29T16:01:03Z) - ICON$^2$: Reliably Benchmarking Predictive Inequity in Object Detection [23.419153864862174]
コンピュータビジョンシステムにおける社会的バイアスに関する懸念が高まっている。
ICON$2$は、この問題にしっかりと答えるためのフレームワークです。
BDD100K運転データセットから得られる収入に関して,物体検出の性能に関する詳細な研究を行う。
論文 参考訳(メタデータ) (2023-06-07T17:42:42Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - $p$-DkNN: Out-of-Distribution Detection Through Statistical Testing of
Deep Representations [32.99800144249333]
我々は、訓練された深層ニューラルネットワークを使用し、その中間の隠蔽表現の類似構造を分析する新しい推論手順である$p$-DkNNを紹介した。
我々は、$p$-DkNNでアダプティブアタッカーが、最悪のOOD入力の形式である敵の例を作成して、入力に意味のある変更を導入する。
論文 参考訳(メタデータ) (2022-07-25T21:42:08Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。