論文の概要: Can I see an Example? Active Learning the Long Tail of Attributes and
Relations
- arxiv url: http://arxiv.org/abs/2203.06215v1
- Date: Fri, 11 Mar 2022 19:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:09:38.242610
- Title: Can I see an Example? Active Learning the Long Tail of Attributes and
Relations
- Title(参考訳): 例を見せてもらえますか?
属性と関係のロングテールとしてのアクティブラーニング
- Authors: Tyler L. Hayes, Maximilian Nickel, Christopher Kanan, Ludovic Denoyer,
Arthur Szlam
- Abstract要約: 視覚シーンの属性や関係を問う,新たな逐次能動学習フレームワークを提案する。
従来のアクティブな学習手法では、特定の例のラベルを求めるが、エージェントが特定のカテゴリからサンプルを求めることができるように、このフレーミングを反転させる。
このフレーミングを用いて、データ分布の尾からサンプルを求めるアクティブサンプリング手法を導入し、Visual Genomeの古典的アクティブラーニング手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 64.50739983632006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been significant progress in creating machine learning models that
identify objects in scenes along with their associated attributes and
relationships; however, there is a large gap between the best models and human
capabilities. One of the major reasons for this gap is the difficulty in
collecting sufficient amounts of annotated relations and attributes for
training these systems. While some attributes and relations are abundant, the
distribution in the natural world and existing datasets is long tailed. In this
paper, we address this problem by introducing a novel incremental active
learning framework that asks for attributes and relations in visual scenes.
While conventional active learning methods ask for labels of specific examples,
we flip this framing to allow agents to ask for examples from specific
categories. Using this framing, we introduce an active sampling method that
asks for examples from the tail of the data distribution and show that it
outperforms classical active learning methods on Visual Genome.
- Abstract(参考訳): シーン内のオブジェクトと関連する属性や関係を識別する機械学習モデルの作成には大きな進歩がありますが、最高のモデルと人間の能力の間には大きなギャップがあります。
このギャップの大きな理由の1つは、これらのシステムのトレーニングに十分な量の注釈付き関係と属性を集めることの難しさである。
いくつかの属性と関係は豊富であるが、自然界と既存のデータセットの分布は長い尾根がある。
本稿では,視覚シーンの属性や関係を問う,新たな能動学習フレームワークを導入することで,この問題に対処する。
従来のアクティブラーニング手法では、特定の例のラベルを要求するが、エージェントが特定のカテゴリから例を求めることができるように、このフレーミングをひっくり返す。
このフレーミングを用いて、データ分布の尾からサンプルを求めるアクティブサンプリング手法を導入し、Visual Genomeの古典的アクティブラーニング手法よりも優れていることを示す。
関連論文リスト
- Granularity Matters in Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - Exploring Task Difficulty for Few-Shot Relation Extraction [22.585574542329677]
Few-shot Relation extract (FSRE) は、わずかに注釈付きインスタンスで学習することで、新しい関係を認識することに焦点を当てている。
本稿では,関係ラベル情報を活用することで,より良い表現を学習するコントラスト学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-12T09:40:33Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Representation Learning for Weakly Supervised Relation Extraction [19.689433249830465]
本論文では、分散テキスト表現機能を学ぶための教師なし事前学習モデルをいくつか提示する。
実験により,従来の手作りの特徴と組み合わせることで,関係抽出のためのロジスティック分類モデルの性能が向上することが実証された。
論文 参考訳(メタデータ) (2021-04-10T12:22:25Z) - Connecting Images through Time and Sources: Introducing Low-data,
Heterogeneous Instance Retrieval [3.6526118822907594]
バリエーションやセマンティックな内容のパネルによく反応する機能を選択するのは簡単ではないことを示す。
Alegoriaベンチマークの新しい拡張バージョンを導入し、詳細なアノテーションを使って記述子を比較します。
論文 参考訳(メタデータ) (2021-03-19T10:54:51Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - LEAPME: Learning-based Property Matching with Embeddings [5.2078071454435815]
LEAPME(LEArning-based Property Matching with Embeddings)と呼ばれる機械学習による新しいプロパティマッチング手法を提案する。
このアプローチでは、プロパティ名とインスタンス値の両方のドメイン固有のセマンティクスをよりよく活用するために、ワード埋め込みを多用している。
実世界データを用いた複数のマルチソースデータセットに対する5つのベースラインの比較評価により,LEAPMEの有効性が示唆された。
論文 参考訳(メタデータ) (2020-10-05T12:42:39Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。