論文の概要: Learning from Aggregate Observations
- arxiv url: http://arxiv.org/abs/2004.06316v3
- Date: Thu, 7 Jan 2021 05:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 08:55:54.550540
- Title: Learning from Aggregate Observations
- Title(参考訳): 集合的観察から学ぶ
- Authors: Yivan Zhang, Nontawat Charoenphakdee, Zhenguo Wu, Masashi Sugiyama
- Abstract要約: 本研究では,一組のインスタンスに監視信号が与えられる集合観察から学習する問題について検討する。
本稿では,多種多様な集合観測に適合する一般的な確率的枠組みを提案する。
単純な極大解は様々な微分可能なモデルに適用できる。
- 参考スコア(独自算出の注目度): 82.44304647051243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning from aggregate observations where
supervision signals are given to sets of instances instead of individual
instances, while the goal is still to predict labels of unseen individuals. A
well-known example is multiple instance learning (MIL). In this paper, we
extend MIL beyond binary classification to other problems such as multiclass
classification and regression. We present a general probabilistic framework
that accommodates a variety of aggregate observations, e.g., pairwise
similarity/triplet comparison for classification and mean/difference/rank
observation for regression. Simple maximum likelihood solutions can be applied
to various differentiable models such as deep neural networks and gradient
boosting machines. Moreover, we develop the concept of consistency up to an
equivalence relation to characterize our estimator and show that it has nice
convergence properties under mild assumptions. Experiments on three problem
settings -- classification via triplet comparison and regression via mean/rank
observation indicate the effectiveness of the proposed method.
- Abstract(参考訳): 本研究では,個別のインスタンスではなく,インスタンス群に対して監視信号が与えられている場合の総合観測から学習する問題について検討する。
有名な例として、Multiple Case Learning (MIL)がある。
本稿では、MILを二項分類を超えて、マルチクラス分類や回帰といった他の問題に拡張する。
本稿では,分類のためのペアワイズ類似性/トリプレット比較や回帰のための平均/差分/ランク観測など,様々な集計観測に対応する一般的な確率的枠組みを提案する。
単純な極大解は、ディープニューラルネットワークや勾配ブースティングマシンのような様々な微分可能なモデルに適用できる。
さらに、同値関係まで整合性の概念を発展させ、推定器を特徴づけ、穏やかな仮定の下で優れた収束特性を持つことを示す。
三重項比較による分類と平均/ランク観察による回帰は,提案手法の有効性を示す。
関連論文リスト
- Similarity-Dissimilarity Loss with Supervised Contrastive Learning for Multi-label Classification [11.499489446062054]
マルチラベル分類のためのコントラスト学習を用いた類似性-類似性損失を提案する。
提案する損失は、教師付きコントラスト学習パラダイムの下で、すべてのエンコーダの性能を効果的に向上させる。
論文 参考訳(メタデータ) (2024-10-17T11:12:55Z) - Logistic Regression Equivalence: A Framework for Comparing Logistic
Regression Models Across Populations [4.518012967046983]
本研究は, 個体群差に対する既定寛容レベルの同値試験が, 推論の精度を高めることを論じる。
診断データについては、等価モデルと等価でないモデルの例を示す。
論文 参考訳(メタデータ) (2023-03-23T15:12:52Z) - Bayesian Hierarchical Models for Counterfactual Estimation [12.159830463756341]
本稿では,多種多様なカウンターファクトの集合を推定する確率的パラダイムを提案する。
摂動を事前分布関数によるランダム変数として扱う。
収束特性の優れた勾配ベースサンプリング器は、後方サンプルを効率的に計算する。
論文 参考訳(メタデータ) (2023-01-21T00:21:11Z) - Beyond Instance Discrimination: Relation-aware Contrastive
Self-supervised Learning [75.46664770669949]
本稿では,関係認識型コントラスト型自己教師型学習(ReCo)をインスタンス関係に統合するために提案する。
当社のReCoは、常に顕著なパフォーマンス改善を実現しています。
論文 参考訳(メタデータ) (2022-11-02T03:25:28Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Solving Inefficiency of Self-supervised Representation Learning [87.30876679780532]
既存のコントラスト学習法は、非常に低い学習効率に苦しむ。
アンダークラスタリングとオーバークラスタリングの問題は、学習効率の大きな障害である。
中央三重項損失を用いた新しい自己監督学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-18T07:47:10Z) - Reduced-Rank Tensor-on-Tensor Regression and Tensor-variate Analysis of
Variance [11.193504036335503]
このような構造を利用するために古典的多変量回帰モデルを拡張する。
ブロックリラクシエーションアルゴリズムにより最大ラピエーション推定器を得る。
別々のアプリケーションがWildイメージデータベースのラベル付き顔に3方向のTANOVAを実行する。
論文 参考訳(メタデータ) (2020-12-18T14:04:41Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。