論文の概要: Proceedings of the First Workshop on Weakly Supervised Learning (WeaSuL)
- arxiv url: http://arxiv.org/abs/2107.03690v1
- Date: Thu, 8 Jul 2021 09:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:31:07.732493
- Title: Proceedings of the First Workshop on Weakly Supervised Learning (WeaSuL)
- Title(参考訳): 第1回弱監視学習ワークショップ(WeaSuL)の開催報告
- Authors: Michael A. Hedderich, Benjamin Roth, Katharina Kann, Barbara Plank,
Alex Ratner and Dietrich Klakow
- Abstract要約: WeaSuL 2021 は Weakly Supervised Learning に関する最初のワークショップであり、ICLR 2021 と共同で開催されている。
我々は、専門家が自動データアノテーションの事前コード化された知識を表現できるように理論、手法、ツールを進歩させたいと考えています。
- 参考スコア(独自算出の注目度): 33.28342865428927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Welcome to WeaSuL 2021, the First Workshop on Weakly Supervised Learning,
co-located with ICLR 2021. In this workshop, we want to advance theory, methods
and tools for allowing experts to express prior coded knowledge for automatic
data annotations that can be used to train arbitrary deep neural networks for
prediction. The ICLR 2021 Workshop on Weak Supervision aims at advancing
methods that help modern machine-learning methods to generalize from knowledge
provided by experts, in interaction with observable (unlabeled) data. In total,
15 papers were accepted. All the accepted contributions are listed in these
Proceedings.
- Abstract(参考訳): Welcome to WeaSuL 2021, the First Workshop on Weakly Supervised Learning, colocated with ICLR 2021。
このワークショップでは、専門家が任意のディープニューラルネットワークをトレーニングして予測できる自動データアノテーションに対して、事前にコーディングされた知識を表現できるように、理論、手法、ツールを前進させたいと思っています。
ICLR 2021 Workshop on Weak Supervisionは、観測可能な(ラベルなし)データとの相互作用において、専門家が提供した知識を一般化する、現代的な機械学習手法を支援する方法の進歩を目標としている。
合計15通の論文が提出された。
受理されたすべてのコントリビューションは、これらの手順にリストされます。
関連論文リスト
- Exploiting the Semantic Knowledge of Pre-trained Text-Encoders for Continual Learning [70.64617500380287]
継続的な学習は、モデルが学習した知識を維持しながら、新しいデータから学習することを可能にする。
画像のラベル情報で利用できるセマンティック知識は、以前に取得したセマンティッククラスの知識と関連する重要なセマンティック情報を提供する。
テキスト埋め込みを用いて意味的類似性を把握し,タスク内およびタスク間のセマンティックガイダンスの統合を提案する。
論文 参考訳(メタデータ) (2024-08-02T07:51:44Z) - Theory on Mixture-of-Experts in Continual Learning [72.42497633220547]
継続学習(CL)は、時間とともに現れる新しいタスクに適応する能力のため、大きな注目を集めている。
モデルが新しいタスクに適応するにつれて、(古いタスクの)破滅的な忘れがCLの大きな問題として認識されるようになった。
MoEモデルは近年,ゲーティングネットワークを用いることで,CLの破滅的忘れを効果的に軽減することが示されている。
論文 参考訳(メタデータ) (2024-06-24T08:29:58Z) - THUIR@COLIEE 2023: Incorporating Structural Knowledge into Pre-trained
Language Models for Legal Case Retrieval [16.191450092389722]
本稿では,COLIEE 2023におけるチャンピオンシップチームTHUIRのアプローチを要約する。
具体的には,訴訟の理解を深めるために,構造化された事前学習言語モデルを設計する。
最終的に、異なる次元の機能をマージするために、学習とランクの手法が使用される。
論文 参考訳(メタデータ) (2023-05-11T14:08:53Z) - Pretrained Embeddings for E-commerce Machine Learning: When it Fails and
Why? [18.192733659176806]
電子商取引アプリケーションにおける事前学習型埋め込みの利用について検討する。
事前にトレーニングされた埋め込みがどのように動作するのか、十分に理解されていないことが分かりました。
我々はカーネル解析のレンズを通して事前学習した埋め込みの原理的視点を確立する。
論文 参考訳(メタデータ) (2023-04-09T23:55:47Z) - Tutorial on Deep Learning for Human Activity Recognition [70.94062293989832]
このチュートリアルは2021年のACM International Symposium on Wearable Computers (ISWC'21)で初めて開催された。
これは、人間のアクティビティを深く学習する上で、データパイプラインにおける最も重要なステップの、ハンズオンでインタラクティブなウォークスルーを提供する。
論文 参考訳(メタデータ) (2021-10-13T12:01:02Z) - Recent Deep Semi-supervised Learning Approaches and Related Works [0.9790236766474201]
セミ教師付き学習は,ラベルの不足やラベルなしデータの量が多いことをモデルトレーニングに活用する学習手法である。
半教師付き学習環境における深層ニューラルネットワークの利用について,主に考察する。
論文 参考訳(メタデータ) (2021-06-22T03:44:03Z) - Two-Stream Consensus Network: Submission to HACS Challenge 2021
Weakly-Supervised Learning Track [78.64815984927425]
弱い監督による時間的行動ローカライゼーションの目標は、ビデオの興味ある動作を時間的に特定し、分類することである。
この課題では,2ストリームコンセンサスネットワーク(TSCN)を主要なフレームワークとして採用しています。
この課題では,本手法が今後の学術研究のベースラインとなることを期待して,第2位にランクインした。
論文 参考訳(メタデータ) (2021-06-21T03:36:36Z) - Proceedings of NeurIPS 2020 Workshop on Artificial Intelligence for
Humanitarian Assistance and Disaster Response [1.9043833325245103]
これは、2020年12月12日にNeural Information Processing Systemsカンファレンスで事実上開催された第2回AI + HADRワークショップの"成果"である。
それらは非アーキバルであり、単にワークショップで受け入れられたすべての論文をまとめる手段として機能する。
論文 参考訳(メタデータ) (2020-12-03T17:44:26Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。