論文の概要: Proceedings of the First Workshop on Weakly Supervised Learning (WeaSuL)
- arxiv url: http://arxiv.org/abs/2107.03690v1
- Date: Thu, 8 Jul 2021 09:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:31:07.732493
- Title: Proceedings of the First Workshop on Weakly Supervised Learning (WeaSuL)
- Title(参考訳): 第1回弱監視学習ワークショップ(WeaSuL)の開催報告
- Authors: Michael A. Hedderich, Benjamin Roth, Katharina Kann, Barbara Plank,
Alex Ratner and Dietrich Klakow
- Abstract要約: WeaSuL 2021 は Weakly Supervised Learning に関する最初のワークショップであり、ICLR 2021 と共同で開催されている。
我々は、専門家が自動データアノテーションの事前コード化された知識を表現できるように理論、手法、ツールを進歩させたいと考えています。
- 参考スコア(独自算出の注目度): 33.28342865428927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Welcome to WeaSuL 2021, the First Workshop on Weakly Supervised Learning,
co-located with ICLR 2021. In this workshop, we want to advance theory, methods
and tools for allowing experts to express prior coded knowledge for automatic
data annotations that can be used to train arbitrary deep neural networks for
prediction. The ICLR 2021 Workshop on Weak Supervision aims at advancing
methods that help modern machine-learning methods to generalize from knowledge
provided by experts, in interaction with observable (unlabeled) data. In total,
15 papers were accepted. All the accepted contributions are listed in these
Proceedings.
- Abstract(参考訳): Welcome to WeaSuL 2021, the First Workshop on Weakly Supervised Learning, colocated with ICLR 2021。
このワークショップでは、専門家が任意のディープニューラルネットワークをトレーニングして予測できる自動データアノテーションに対して、事前にコーディングされた知識を表現できるように、理論、手法、ツールを前進させたいと思っています。
ICLR 2021 Workshop on Weak Supervisionは、観測可能な(ラベルなし)データとの相互作用において、専門家が提供した知識を一般化する、現代的な機械学習手法を支援する方法の進歩を目標としている。
合計15通の論文が提出された。
受理されたすべてのコントリビューションは、これらの手順にリストされます。
関連論文リスト
- Towards a General Framework for Continual Learning with Pre-training [59.96040498079991]
本稿では,事前学習を用いた逐次到着タスクの連続学習のための一般的な枠組みを提案する。
我々はその目的を,タスク内予測,タスク同一性推論,タスク適応予測という3つの階層的構成要素に分解する。
本稿では,パラメータ効率細調整(PEFT)技術と表現統計量を用いて,これらのコンポーネントを明示的に最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T02:03:38Z) - THUIR@COLIEE 2023: Incorporating Structural Knowledge into Pre-trained
Language Models for Legal Case Retrieval [16.191450092389722]
本稿では,COLIEE 2023におけるチャンピオンシップチームTHUIRのアプローチを要約する。
具体的には,訴訟の理解を深めるために,構造化された事前学習言語モデルを設計する。
最終的に、異なる次元の機能をマージするために、学習とランクの手法が使用される。
論文 参考訳(メタデータ) (2023-05-11T14:08:53Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - Pretrained Embeddings for E-commerce Machine Learning: When it Fails and
Why? [18.192733659176806]
電子商取引アプリケーションにおける事前学習型埋め込みの利用について検討する。
事前にトレーニングされた埋め込みがどのように動作するのか、十分に理解されていないことが分かりました。
我々はカーネル解析のレンズを通して事前学習した埋め込みの原理的視点を確立する。
論文 参考訳(メタデータ) (2023-04-09T23:55:47Z) - Tutorial on Deep Learning for Human Activity Recognition [70.94062293989832]
このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)で初めて開催された。
これは、人間のアクティビティを深く学習する上で、データパイプラインにおける最も重要なステップの、ハンズオンでインタラクティブなウォークスルーを提供する。
論文 参考訳(メタデータ) (2021-10-13T12:01:02Z) - Recent Deep Semi-supervised Learning Approaches and Related Works [0.0]
セミ教師付き学習は、ラベルの少ないラベルと大量の未ラベルデータを用いてモデルを訓練する学習手法である。
半教師付き学習環境における深層ニューラルネットワークの利用について,主に考察する。
論文 参考訳(メタデータ) (2021-06-22T03:44:03Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Proceedings of NeurIPS 2020 Workshop on Artificial Intelligence for
Humanitarian Assistance and Disaster Response [1.9043833325245103]
これは、2020年12月12日にNeural Information Processing Systemsカンファレンスで事実上開催された第2回AI + HADRワークショップの"成果"である。
それらは非アーキバルであり、単にワークショップで受け入れられたすべての論文をまとめる手段として機能する。
論文 参考訳(メタデータ) (2020-12-03T17:44:26Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。