論文の概要: VICE: Variational Inference for Concept Embeddings
- arxiv url: http://arxiv.org/abs/2205.00756v3
- Date: Wed, 4 May 2022 11:26:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 12:45:15.833941
- Title: VICE: Variational Inference for Concept Embeddings
- Title(参考訳): VICE:概念埋め込みのための変分推論
- Authors: Lukas Muttenthaler and Charles Y. Zheng and Patrick McClure and Robert
A. Vandermeulen and Martin N. Hebart and Francisco Pereira
- Abstract要約: 概念埋め込みのための変分推論(VICE)は、人間の行動から物体概念の埋め込みを学ぶための近似ベイズ的手法である。
これらの推定値を利用して、再現可能な埋め込みを生成しながら、データを説明する次元を自動的に選択する。
VICEは前任者のSPoSEに匹敵するか、上回っている。
- 参考スコア(独自算出の注目度): 12.17182639702724
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we introduce Variational Inference for Concept Embeddings
(VICE), an approximate Bayesian method for learning object concept embeddings
from human behavior in an odd-one-out triplet task. We use variational
inference to obtain a sparse, non-negative solution with uncertainty estimates
about each embedding value. We exploit these estimates to automatically select
the dimensions that explain the data while yielding reproducible embeddings. We
introduce a PAC learning bound for VICE that can be used to estimate
generalization performance or determine a sufficient sample size for different
experimental designs. VICE rivals or outperforms its predecessor, SPoSE, at
predicting human behavior in a triplet task. VICE object representations are
substantially more reproducible and consistent across different random
initializations.
- Abstract(参考訳): 本稿では, ランダムな3重項タスクにおいて, 人間の行動から物体概念を埋め込み学習するためのベイズ的手法である, 概念埋め込みのための変分推論(VICE)を提案する。
変動推論を用いて,各埋め込み値に対する不確かさを推定した,ばらばらで非負の解を求める。
これらの推定値を利用して、再現可能な埋め込みを生成しながら、データを説明する次元を自動的に選択する。
本稿では,VICEのためのPAC学習バウンダリを導入し,一般化性能を推定したり,異なる実験設計のための十分なサンプルサイズを決定する。
3倍のタスクで人間の行動を予測することで、その前任者のスポスをライバルあるいは上回っている。
VICEオブジェクト表現は、より再現性が高く、異なるランダム初期化に対して一貫性がある。
関連論文リスト
- Introducing User Feedback-based Counterfactual Explanations (UFCE) [49.1574468325115]
対実的説明(CE)は、XAIで理解可能な説明を生成するための有効な解決策として浮上している。
UFCEは、アクション可能な機能のサブセットで最小限の変更を決定するために、ユーザー制約を含めることができる。
UFCEは、textitproximity(英語版)、textitsparsity(英語版)、textitfeasibility(英語版)の2つのよく知られたCEメソッドより優れている。
論文 参考訳(メタデータ) (2024-02-26T20:09:44Z) - Conformal Prediction in Multi-User Settings: An Evaluation [0.10231119246773925]
マシンラーニングモデルは、ユーザを区別することなく、トレーニングされ、評価される。
これにより、マルチユーザ設定で不正確なパフォーマンス指標が生成される。
本研究では,複数のマルチユーザ設定における共形予測フレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-12-08T17:33:23Z) - A Closer Look at the Intervention Procedure of Concept Bottleneck Models [18.222350428973343]
概念ボトルネックモデル(コンセプションボトルネックモデル、CBM)は、その高レベルな概念に基づいて与えられた入力のターゲット応答を予測する、解釈可能なニューラルネットワークモデルのクラスである。
CBMは、ドメインの専門家が予測された概念に介入し、テスト時に間違いを修正できるので、最後にもっと正確なタスク予測ができる。
本研究では,介入効果を向上させるために介入概念を選択する様々な方法を開発し,異なる状況下でどのように進化するかを詳細に分析する。
論文 参考訳(メタデータ) (2023-02-28T02:37:24Z) - Trading Information between Latents in Hierarchical Variational
Autoencoders [8.122270502556374]
変分オートエンコーダ(VAE)はもともと確率的生成モデルとして動機付けられ、ベイズ推定を近似的に行う。
$beta$-VAEsの提案はこの解釈を破り、VAEを生成モデリング以上のアプリケーションドメインに一般化する。
推論モデルの一般的なクラスを特定し、各レイヤからのコントリビューションにレートを分割し、独立に調整することができる。
論文 参考訳(メタデータ) (2023-02-09T18:56:11Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - InteL-VAEs: Adding Inductive Biases to Variational Auto-Encoders via
Intermediary Latents [60.785317191131284]
本稿では,潜伏変数の中間集合を用いて,制御可能なバイアスでVAEを学習するための簡易かつ効果的な手法を提案する。
特に、学習した表現に対して、スパーシリティやクラスタリングといった望ましいプロパティを課すことができます。
これにより、InteL-VAEはより優れた生成モデルと表現の両方を学ぶことができる。
論文 参考訳(メタデータ) (2021-06-25T16:34:05Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - MUTANT: A Training Paradigm for Out-of-Distribution Generalization in
Visual Question Answering [58.30291671877342]
MUTANTは、モデルが知覚的に類似しているが意味的に異なる入力の変異に露出する訓練パラダイムである。
MUTANTは、VQA-CPに新しい最先端の精度を確立し、10.57%$改善した。
論文 参考訳(メタデータ) (2020-09-18T00:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。