論文の概要: On Learning Latent Models with Multi-Instance Weak Supervision
- arxiv url: http://arxiv.org/abs/2306.13796v2
- Date: Sat, 13 Jul 2024 20:22:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 05:08:47.340565
- Title: On Learning Latent Models with Multi-Instance Weak Supervision
- Title(参考訳): マルチインスタンス弱スーパービジョンを用いた潜在モデル学習について
- Authors: Kaifu Wang, Efthymia Tsamoura, Dan Roth,
- Abstract要約: 本稿では,複数の入力インスタンスに関連付けられた遷移関数$sigma$ラベルによって,教師信号が生成される弱い教師付き学習シナリオについて考察する。
我々の問題は、潜在的な構造学習やニューロシンボリックな統合など、さまざまな分野で満たされている。
- 参考スコア(独自算出の注目度): 57.18649648182171
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a weakly supervised learning scenario where the supervision signal is generated by a transition function $\sigma$ of labels associated with multiple input instances. We formulate this problem as \emph{multi-instance Partial Label Learning (multi-instance PLL)}, which is an extension to the standard PLL problem. Our problem is met in different fields, including latent structural learning and neuro-symbolic integration. Despite the existence of many learning techniques, limited theoretical analysis has been dedicated to this problem. In this paper, we provide the first theoretical study of multi-instance PLL with possibly an unknown transition $\sigma$. Our main contributions are as follows. Firstly, we propose a necessary and sufficient condition for the learnability of the problem. This condition non-trivially generalizes and relaxes the existing small ambiguity degree in the PLL literature, since we allow the transition to be deterministic. Secondly, we derive Rademacher-style error bounds based on a top-$k$ surrogate loss that is widely used in the neuro-symbolic literature. Furthermore, we conclude with empirical experiments for learning under unknown transitions. The empirical results align with our theoretical findings; however, they also expose the issue of scalability in the weak supervision literature.
- Abstract(参考訳): 本稿では,複数の入力インスタンスに関連付けられたラベルの遷移関数$\sigma$によって,教師信号が生成される弱い教師付き学習シナリオについて考察する。
この問題を標準的な PLL 問題の拡張である \emph{multi-instance partial Label Learning (multi-instance PLL)} として定式化する。
我々の問題は、潜在的な構造学習やニューロシンボリックな統合など、さまざまな分野で満たされている。
多くの学習技術が存在するにもかかわらず、この問題には限定的な理論分析が費やされている。
本稿では、おそらく未知の遷移 $\sigma$ を持つマルチインスタンス PLL に関する最初の理論的研究を提供する。
主な貢献は以下の通りである。
まず,問題の学習に必要かつ十分な条件を提案する。
この条件は、遷移が決定論的であることを認めるため、PLL文学において既存の小さなあいまい度を非自明に一般化し、緩和する。
第2に、ニューロシンボリックな文献で広く使われている上位k$の代理損失に基づいて、Rademacher型エラー境界を導出する。
さらに、未知の遷移下での学習に関する実証実験を締めくくった。
実験結果は我々の理論的な結果と一致するが、弱監督文学におけるスケーラビリティの問題も露呈している。
関連論文リスト
- On Characterizing and Mitigating Imbalances in Multi-Instance Partial Label Learning [57.18649648182171]
マルチインスタンス部分ラベル学習(MI-PLL)は、弱い教師付き学習環境である。
筆者らはMI-PLL下での学習不均衡の特徴付けと緩和に重点を置いている。
論文 参考訳(メタデータ) (2024-07-13T20:56:34Z) - Trade-off Between Dependence and Complexity for Nonparametric Learning
-- an Empirical Process Approach [10.27974860479791]
データが時間的依存を示す多くのアプリケーションでは、対応する経験的プロセスは理解されていない。
標準的な$beta/rho$-mixingの仮定の下では、経験過程の期待上限に一般化する。
長距離依存下であっても、i.d.設定と同じ速度で達成できることが示される。
論文 参考訳(メタデータ) (2024-01-17T05:08:37Z) - Hypothesis Transfer Learning with Surrogate Classification Losses:
Generalization Bounds through Algorithmic Stability [3.908842679355255]
仮説伝達学習(HTL)は、以前のタスクレバレッジを新たなターゲットにすることで、ドメイン適応と対比する。
本稿では,機械学習アルゴリズム解析のための魅力的な理論フレームワークであるアルゴリズム安定性によるHTLの学習理論について検討する。
論文 参考訳(メタデータ) (2023-05-31T09:38:21Z) - MaxMatch: Semi-Supervised Learning with Worst-Case Consistency [149.03760479533855]
半教師付き学習(SSL)のための最悪ケース整合正則化手法を提案する。
本稿では,ラベル付きトレーニングデータとラベル付きトレーニングデータとを別々に比較した経験的損失項からなるSSLの一般化について述べる。
この境界によって動機づけられたSSLの目的は、元のラベルのないサンプルと、その複数の拡張版との最大の矛盾を最小限に抑えるものである。
論文 参考訳(メタデータ) (2022-09-26T12:04:49Z) - Leveraged Weighted Loss for Partial Label Learning [64.85763991485652]
部分ラベル学習は、各インスタンスに候補ラベルのセットが割り当てられるデータを扱うが、そのうちの1つだけが真実である。
部分ラベルからの学習に関する多くの方法論の研究にもかかわらず、リスク一貫した性質に関する理論的理解はいまだに欠けている。
本稿では,テキスト重み付き損失(LW)と呼ばれる損失関数のファミリーを提案する。これはまず,部分ラベル上の損失と非部分的な損失とのトレードオフを検討するために,レバレッジパラメータ$beta$を導入する。
論文 参考訳(メタデータ) (2021-06-10T13:25:13Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Learnability with Indirect Supervision Signals [74.39088325025378]
間接的な監視信号からの学習は、ゴールドラベルが欠落している場合やコストが高すぎる場合、現実世界のAIアプリケーションにおいて重要である。
我々は、ゴールドラベルとゼロでない相互情報を含む変数によって監督が提供される場合に、マルチクラス分類のための統一的な理論フレームワークを開発する。
本フレームワークは文献における仮定を緩和し,未知,非可逆,インスタンス依存のトランジションによる学習を支援する。
論文 参考訳(メタデータ) (2020-06-15T21:57:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。