論文の概要: Incidental Supervision: Moving beyond Supervised Learning
- arxiv url: http://arxiv.org/abs/2005.12339v1
- Date: Mon, 25 May 2020 18:44:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 05:12:57.065639
- Title: Incidental Supervision: Moving beyond Supervised Learning
- Title(参考訳): インシデント・スーパービジョン: 教師付き学習を超えて
- Authors: Dan Roth
- Abstract要約: 本稿では、監視ボトルネックを軽減するために設計された学習パラダイムについて述べる。
それは、テキストから様々なレベルの意味表現を誘導することに関連する、複数の問題の文脈におけるそれらの利点を説明する。
- 参考スコア(独自算出の注目度): 72.4859717204905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning and Inference methods have become ubiquitous in our attempt
to induce more abstract representations of natural language text, visual
scenes, and other messy, naturally occurring data, and support decisions that
depend on it. However, learning models for these tasks is difficult partly
because generating the necessary supervision signals for it is costly and does
not scale. This paper describes several learning paradigms that are designed to
alleviate the supervision bottleneck. It will illustrate their benefit in the
context of multiple problems, all pertaining to inducing various levels of
semantic representations from text.
- Abstract(参考訳): 自然言語テキスト,視覚シーン,その他の乱雑で自然に発生するデータのより抽象的な表現を誘導し,それに依存する決定を支援すべく,機械学習と推論手法が普及してきた。
しかし、必要な監督信号の生成にはコストがかかり、スケールしないため、これらのタスクの学習モデルは困難である。
本稿では、監視ボトルネックを軽減するために設計された学習パラダイムについて述べる。
それは、テキストから様々なレベルの意味表現を誘導することに関連する、複数の問題の文脈におけるそれらの利点を説明する。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Does Deep Learning Learn to Abstract? A Systematic Probing Framework [69.2366890742283]
抽象化はディープラーニングモデルにとって望ましい機能であり、具体的なインスタンスから抽象概念を誘導し、学習コンテキストを超えて柔軟に適用することを意味する。
本稿では,伝達可能性の観点から,ディープラーニングモデルの抽象化能力を検討するための体系的探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:50:02Z) - Brief Introduction to Contrastive Learning Pretext Tasks for Visual
Representation [0.0]
教師なし学習手法のサブセットであるコントラスト学習を導入する。
対照的な学習の目的は、互いに近くにある同じサンプルから強化されたサンプルを埋め込んで、そうでないサンプルを押し下げることである。
我々は、最近公開されたコントラスト学習の戦略をいくつか提示し、視覚表現のためのプレテキストタスクに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-06T18:54:10Z) - Semantic Exploration from Language Abstractions and Pretrained
Representations [23.02024937564099]
効果的な探究は強化学習(RL)の課題である
意味論的に意味のある状態抽象化を用いて新規性を定義する。
自然画像キャプションデータセットに基づく視覚言語表現の評価を行った。
論文 参考訳(メタデータ) (2022-04-08T17:08:00Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Improving Disentangled Text Representation Learning with
Information-Theoretic Guidance [99.68851329919858]
自然言語の独特な性質は、テキスト表現の分離をより困難にする。
情報理論にインスパイアされた本研究では,テキストの不整合表現を効果的に表現する手法を提案する。
条件付きテキスト生成とテキストスタイル転送の両方の実験は、不整合表現の質を実証する。
論文 参考訳(メタデータ) (2020-06-01T03:36:01Z) - Adaptive Transformers for Learning Multimodal Representations [6.09170287691728]
我々は適応的アプローチを拡張して、モデル解釈可能性と計算効率についてより深く学ぶ。
本研究では,視覚や言語タスクの注意機構がいかに拡張されているかを理解するために,注意範囲,スパース,構造化されたドロップアウト手法について検討する。
論文 参考訳(メタデータ) (2020-05-15T12:12:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。