論文の概要: Supervision Levels Scale (SLS)
- arxiv url: http://arxiv.org/abs/2008.09890v1
- Date: Sat, 22 Aug 2020 18:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 08:13:27.516838
- Title: Supervision Levels Scale (SLS)
- Title(参考訳): スーパービジョンレベルスケール(SLS)
- Authors: Dima Damen and Michael Wray
- Abstract要約: 我々は、事前トレーニング、ラベルのトレーニング、トレーニングデータという、追加のコストを要しながら、メソッドに利点を与えることが知られている、監督の3つの側面を捉えます。
提案した3次元尺度は、結果表やリーダーボードに含められ、その性能だけでなく、各手法が活用するデータ監視レベルによってメソッドを手軽に比較することができる。
- 参考スコア(独自算出の注目度): 37.944946917484444
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a three-dimensional discrete and incremental scale to encode a
method's level of supervision - i.e. the data and labels used when training a
model to achieve a given performance. We capture three aspects of supervision,
that are known to give methods an advantage while requiring additional costs:
pre-training, training labels and training data. The proposed three-dimensional
scale can be included in result tables or leaderboards to handily compare
methods not only by their performance, but also by the level of data
supervision utilised by each method. The Supervision Levels Scale (SLS) is
first presented generally fo any task/dataset/challenge. It is then applied to
the EPIC-KITCHENS-100 dataset, to be used for the various leaderboards and
challenges associated with this dataset.
- Abstract(参考訳): そこで本稿では,モデルの学習に使用するデータとラベルを符号化し,与えられた性能を達成するための3次元離散的・漸進的スケールを提案する。
我々は、事前トレーニング、ラベルのトレーニング、トレーニングデータという、追加のコストを要しながら、メソッドに利点を与えることが知られている、監督の3つの側面を捉えます。
提案した3次元尺度は、結果表やリーダーボードに含められ、その性能だけでなく、各手法が活用するデータ監視レベルによってメソッドを手軽に比較することができる。
監視レベルスケール(sls)は、タスク/データセット/チャレンジに対して一般的に提示される。
その後、EPIC-KITCHENS-100データセットに適用され、このデータセットに関連するさまざまなリーダボードや課題に使用される。
関連論文リスト
- Efficient Performance Tracking: Leveraging Large Language Models for Automated Construction of Scientific Leaderboards [67.65408769829524]
科学的リーダーボードは、競争方法の評価と比較を容易にする標準化されたランキングシステムである。
出版物の増加により、これらのリーダーボードを手動で構築し維持することは不可能になった。
手作業の削減の解決策として リーダーボードの 自動構築が登場しました
論文 参考訳(メタデータ) (2024-09-19T11:12:27Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Towards Generic Semi-Supervised Framework for Volumetric Medical Image
Segmentation [19.09640071505051]
UDAやSemiDGといった設定を扱う汎用SSLフレームワークを開発した。
提案するフレームワークを,SSL,クラス不均衡SSL,UDA,セミDGの4つのベンチマークデータセット上で評価した。
その結果,4つの設定にまたがる最先端の手法と比較して,顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-10-17T14:58:18Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - Multi-Class 3D Object Detection with Single-Class Supervision [34.216636233945856]
完全なラベル付きデータセットによるマルチクラスの3D検出器のトレーニングは費用がかかる。
別のアプローチとして、解離したデータサンプルに単一クラスラベルをターゲットとする方法がある。
本稿では,単一クラスラベル付きデータを用いて,マルチクラス3次元オブジェクト検出モデルの学習に関心がある。
論文 参考訳(メタデータ) (2022-05-11T18:00:05Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - COLA: COarse LAbel pre-training for 3D semantic segmentation of sparse
LiDAR datasets [3.8243923744440926]
転送学習は、2次元コンピュータビジョンにおいて、利用可能な大量のデータを活用し、高い性能を達成するための実証された技術である。
本研究では,スパース自動運転LiDARスキャンのリアルタイムな3次元セマンティックセマンティックセマンティックセグメンテーションを実現する。
我々は,COLA(Coarse label pre-training)と呼ばれる新しい事前訓練タスクを導入する。
論文 参考訳(メタデータ) (2022-02-14T17:19:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。