論文の概要: CoMeDi Shared Task: Models as Annotators in Lexical Semantics Disagreements
- arxiv url: http://arxiv.org/abs/2411.12147v1
- Date: Tue, 19 Nov 2024 00:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:37:08.274680
- Title: CoMeDi Shared Task: Models as Annotators in Lexical Semantics Disagreements
- Title(参考訳): CoMeDi共有タスク:語彙意味論におけるアノテーションとしてのモデル
- Authors: Zhu Liu, Zhen Hu, Ying Liu,
- Abstract要約: 本稿では,多数決とアノテータの不一致を予測したCoMeDi共有タスクのシステム結果を示す。
提案手法は,事前学習された言語モデルに基づいて学習したアンサンブルベースおよびしきい値ベース手法とモデル戦略を組み合わせる。
特に、同じモデル内であっても、連続的な類似度スコアは、集約された離散ラベルと比較して、人間の不一致パターンとよく一致していることがわかった。
- 参考スコア(独自算出の注目度): 5.336744348106775
- License:
- Abstract: We present the results of our system for the CoMeDi Shared Task, which predicts majority votes (Subtask 1) and annotator disagreements (Subtask 2). Our approach combines model ensemble strategies with MLP-based and threshold-based methods trained on pretrained language models. Treating individual models as virtual annotators, we simulate the annotation process by designing aggregation measures that incorporate continuous similarity scores and discrete classification labels to capture both majority and disagreement. Additionally, we employ anisotropy removal techniques to enhance performance. Experimental results demonstrate the effectiveness of our methods, particularly for Subtask 2. Notably, we find that continuous similarity scores, even within the same model, align better with human disagreement patterns compared to aggregated discrete labels.
- Abstract(参考訳): 本稿では,多数決(Subtask 1)とアノテータの不一致(Subtask2)を予測するCoMeDi共有タスクに対するシステムの結果について述べる。
提案手法は,モデルアンサンブル戦略と,事前訓練された言語モデルに基づいて訓練されたMLPとしきい値に基づく手法を組み合わせる。
個々のモデルを仮想アノテータとして扱うことにより、連続的な類似度スコアと離散分類ラベルを組み込んだアグリゲーションを設計し、アノテータと不一致の両方を捉えることによって、アノテーションプロセスをシミュレートする。
さらに,異方性除去技術を用いて性能を向上させる。
実験の結果,特にSubtask 2では,本手法の有効性が示された。
特に、同じモデル内であっても、連続的な類似度スコアは、集約された離散ラベルと比較して、人間の不一致パターンとよく一致していることがわかった。
関連論文リスト
- Concrete Subspace Learning based Interference Elimination for Multi-task
Model Fusion [86.6191592951269]
一般的な事前訓練された大規模モデルから微調整されたマージングモデルは、様々なタスクに特化しているが、様々なタスクでうまく機能するマルチタスクモデルを構築するための安価でスケーラブルな戦略として実証されている。
本稿では、共通低次元部分空間を同定し、その共有情報トラック干渉問題を性能を犠牲にすることなく利用するための連続緩和(Concrete)部分空間学習法を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:24:54Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Enhancing Coherence of Extractive Summarization with Multitask Learning [40.349019691412465]
本研究では,コヒーレンス向上を伴う抽出要約のためのマルチタスク学習アーキテクチャを提案する。
アーキテクチャは、抽出要約器とコヒーレント判別器モジュールとを含む。
実験の結果,提案手法は抽出した要約文の連続文の割合を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2023-05-22T09:20:58Z) - Ensemble knowledge distillation of self-supervised speech models [84.69577440755457]
蒸留自己監督モデルは近年、競争性能と効率性を示している。
We performed Ensemble Knowledge Distillation (EKD) on various self-supervised speech model, HuBERT, RobustHuBERT, WavLM。
提案手法は,4つの下流音声処理タスクにおける蒸留モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-02-24T17:15:39Z) - Phoneme Segmentation Using Self-Supervised Speech Models [13.956691231452336]
音素セグメンテーションのタスクに伝達学習を適用し、タスクの自己教師型事前学習において学習した表現の有用性を実証する。
我々のモデルは、事前学習で学んだ特徴を操作する戦略的に配置された畳み込みによるトランスフォーマースタイルのエンコーダを拡張している。
論文 参考訳(メタデータ) (2022-11-02T19:57:31Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Semantically Driven Sentence Fusion: Modeling and Evaluation [27.599227950466442]
文融合は関連文をコヒーレントテキストに結合する作業である。
このタスクの現在のトレーニングと評価スキームは、単一の参照基盤構造に基づいている。
このことは、入力文間の意味的関係を頑健に把握することを妨げる。
論文 参考訳(メタデータ) (2020-10-06T10:06:01Z) - Label-Efficient Multi-Task Segmentation using Contrastive Learning [0.966840768820136]
比較学習に基づくサブタスクを用いたマルチタスクセグメンテーションモデルを提案し、その性能を他のマルチタスクモデルと比較する。
提案手法は,アノテートデータの量に制限がある場合に,最先端の完全教師付きモデルを含む他のマルチタスク手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-23T14:12:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。