論文の概要: CIL: Contrastive Instance Learning Framework for Distantly Supervised
Relation Extraction
- arxiv url: http://arxiv.org/abs/2106.10855v1
- Date: Mon, 21 Jun 2021 04:51:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:36:29.771269
- Title: CIL: Contrastive Instance Learning Framework for Distantly Supervised
Relation Extraction
- Title(参考訳): cil: 遠隔教師付き関係抽出のためのコントラストインスタンス学習フレームワーク
- Authors: Tao Chen, Haizhou Shi, Siliang Tang, Zhigang Chen, Fei Wu, Yueting
Zhuang
- Abstract要約: 我々は、典型的なマルチインスタンス学習(MIL)フレームワークを超えて、新しいコントラッシブ・インスタンス学習(CIL)フレームワークを提案する。
具体的には、初期MILをリレーショナルトリプルエンコーダと各インスタンスに対する負のペアに対する制約正のペアとみなす。
提案手法の有効性を実験的に検証し, 提案手法をNYT10, GDS, KBPで比較検討した。
- 参考スコア(独自算出の注目度): 52.94486705393062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The journey of reducing noise from distant supervision (DS) generated
training data has been started since the DS was first introduced into the
relation extraction (RE) task. For the past decade, researchers apply the
multi-instance learning (MIL) framework to find the most reliable feature from
a bag of sentences. Although the pattern of MIL bags can greatly reduce DS
noise, it fails to represent many other useful sentence features in the
datasets. In many cases, these sentence features can only be acquired by extra
sentence-level human annotation with heavy costs. Therefore, the performance of
distantly supervised RE models is bounded. In this paper, we go beyond typical
MIL framework and propose a novel contrastive instance learning (CIL)
framework. Specifically, we regard the initial MIL as the relational triple
encoder and constraint positive pairs against negative pairs for each instance.
Experiments demonstrate the effectiveness of our proposed framework, with
significant improvements over the previous methods on NYT10, GDS and KBP.
- Abstract(参考訳): 関係抽出(RE)タスクにDSが導入されて以来,遠距離監視(DS)から発生するトレーニングデータからノイズを除去する旅が始まっている。
過去10年間、研究者たちはmulti-instance learning(mil)フレームワークを使って、文の袋から最も信頼できる特徴を見つける。
MILバッグのパターンはDSノイズを大幅に低減させるが、データセットの他の多くの有用な文の特徴を表現できない。
多くの場合、これらの文の特徴は重いコストで追加の文レベルの人間のアノテーションによってのみ取得できる。
したがって、遠隔監視型REモデルの性能は制限される。
本稿では、典型的なmilフレームワークを超えて、新しいコントラストインスタンス学習(cil)フレームワークを提案する。
具体的には、初期MILをリレーショナルトリプルエンコーダと各インスタンスに対する負のペアに対する制約正のペアとみなす。
提案手法の有効性を実験的に検証し, 提案手法をNYT10, GDS, KBPで比較検討した。
関連論文リスト
- Contrastive Learning Is Not Optimal for Quasiperiodic Time Series [4.2807943283312095]
本稿では,ほぼ周期時間系列(DEAPS)の蒸留埋め込みについて紹介する。
DEAPSは、心電図(ECG)データなどの準周期時系列に適した非コントラスト法である。
機械学習(ML)モデルに適合するアノテートレコードがわずかに提示された場合,既存のSOTAメソッドよりも10%向上したことを示す。
論文 参考訳(メタデータ) (2024-07-24T08:02:41Z) - Disperse-Then-Merge: Pushing the Limits of Instruction Tuning via Alignment Tax Reduction [75.25114727856861]
大規模言語モデル(LLM)は、スーパービジョンされた微調整プロセスの後半で劣化する傾向にある。
この問題に対処するための単純な分散結合フレームワークを導入する。
我々のフレームワークは、一連の標準知識と推論ベンチマークに基づいて、データキュレーションや正規化の訓練など、様々な高度な手法より優れています。
論文 参考訳(メタデータ) (2024-05-22T08:18:19Z) - Contrastive Multiple Instance Learning for Weakly Supervised Person ReID [50.04900262181093]
本稿では、より効果的に教師付きされたReIDに適した新しいフレームワークであるContrastive Multiple Instance Learning (CMIL)を紹介する。
CMILは、対照的な損失を生かしながら、単一のモデルと擬似ラベルを必要とせず、自分自身を区別する。
PerformancePhoto.coの実際のアプリケーションから自然に発生する弱いラベルを特徴とするMUDDデータセットの拡張であるWL-MUDDデータセットをリリースする。
論文 参考訳(メタデータ) (2024-02-12T14:48:31Z) - Multiple Instance Learning Framework with Masked Hard Instance Mining
for Whole Slide Image Classification [11.996318969699296]
マスケードハードインスタンスマイニング(MHIM-MIL)について紹介する。
MHIM-MILは、潜在的なハードインスタンスを探索するために一貫性のある制約を持つシームズ構造(Teacher-Student)を使用する。
CAMELYON-16およびTCGA肺がんデータセットの実験結果は、MHIM-MILがパフォーマンスとトレーニングコストの点で他の最新の方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-07-28T01:40:04Z) - Alleviating Over-smoothing for Unsupervised Sentence Representation [96.19497378628594]
本稿では,この問題を緩和するために,SSCL(Self-Contrastive Learning)というシンプルな手法を提案する。
提案手法は非常に単純で,様々な最先端モデルに拡張して,性能向上を図ることができる。
論文 参考訳(メタデータ) (2023-05-09T11:00:02Z) - Latent Feature Relation Consistency for Adversarial Robustness [80.24334635105829]
深層ニューラルネットワークは、人間の知覚できない敵のノイズを自然の例に付加する敵の例を予測するときに、誤分類が起こる。
textbfLatent textbfFeature textbfRelation textbfConsistency (textbfLFRC)を提案する。
LFRCは、潜在空間における逆例の関係を、自然例と整合性に制約する。
論文 参考訳(メタデータ) (2023-03-29T13:50:01Z) - ProtoMIL: Multiple Instance Learning with Prototypical Parts for
Fine-Grained Interpretability [2.094672430475796]
マルチインスタンス学習(MIL)は、教師付きの弱い性質のため、多くの実生活の機械学習アプリケーションで人気を博している。
本稿では,視覚プロトタイプで動作するケースベース推論プロセスにインスパイアされた,自己説明可能な新しいMIL手法であるProtoMILを紹介する。
ProtoMILは、オブジェクト記述にプロトタイプ機能を組み込むことで、モデル精度と微妙な解釈可能性に前例のない結合を実現している。
論文 参考訳(メタデータ) (2021-08-24T10:02:31Z) - A Sample-Based Training Method for Distantly Supervised Relation
Extraction with Pre-Trained Transformers [4.726777092009553]
ハードウェア要求を緩和するDSREの新しいサンプリング手法を提案する。
提案手法では, バッチ内の袋からランダムに文をサンプリングすることにより, バッチ中の文数を制限する。
ランダムサンプリングによる問題を軽減するために,学習モデルのアンサンブルを用いて予測を行う。
論文 参考訳(メタデータ) (2021-04-15T15:09:34Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。