論文の概要: FuocChuVIP123 at CoMeDi Shared Task: Disagreement Ranking with XLM-Roberta Sentence Embeddings and Deep Neural Regression
- arxiv url: http://arxiv.org/abs/2501.12336v1
- Date: Tue, 21 Jan 2025 18:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:25:39.976937
- Title: FuocChuVIP123 at CoMeDi Shared Task: Disagreement Ranking with XLM-Roberta Sentence Embeddings and Deep Neural Regression
- Title(参考訳): FuocChuVIP123 at CoMeDi Shared Task: Disagreement Ranking with XLM-Roberta Sentence Embeddings and Deep Neural Regression
- Authors: Phuoc Duong Huy Chu,
- Abstract要約: 本稿では,CoMeDi共有タスクシステムについて,サブタスク2:識別ランク付けに着目した結果について述べる。
本システムはパラフレーズ-xlm-r-multilingual-v1モデルにより生成された文の埋め込みを利用する。
本手法は,アノテータ間のペアの判断差の平均を推定することにより,不一致ランキングを明示的に対象とする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents results of our system for CoMeDi Shared Task, focusing on Subtask 2: Disagreement Ranking. Our system leverages sentence embeddings generated by the paraphrase-xlm-r-multilingual-v1 model, combined with a deep neural regression model incorporating batch normalization and dropout for improved generalization. By predicting the mean of pairwise judgment differences between annotators, our method explicitly targets disagreement ranking, diverging from traditional "gold label" aggregation approaches. We optimized our system with a customized architecture and training procedure, achieving competitive performance in Spearman correlation against mean disagreement labels. Our results highlight the importance of robust embeddings, effective model architecture, and careful handling of judgment differences for ranking disagreement in multilingual contexts. These findings provide insights into the use of contextualized representations for ordinal judgment tasks and open avenues for further refinement of disagreement prediction models.
- Abstract(参考訳): 本稿では,CoMeDi共有タスクシステムについて,サブタスク2:識別ランク付けに着目した結果について述べる。
本システムは,パラフレーズ-xlm-r-multilingual-v1モデルと,バッチ正規化とドロップアウトを併用したディープニューラル回帰モデルを組み合わせることで,一般化を向上する。
本手法は,アノテータ間のペアの判断差の平均を推定することにより,従来の「ゴールドラベル」集約手法から分岐して,不一致ランキングを明示的に求める。
システムにカスタマイズされたアーキテクチャとトレーニング手順で最適化し,平均不一致ラベルに対するスピアマン相関における競合性能を実現した。
本研究は,多言語文脈における格付け不一致に対する,ロバストな埋め込み,効果的なモデルアーキテクチャ,判断差の慎重に処理することの重要性を強調した。
これらの知見は、日常的判断タスクにおける文脈的表現の使用に関する洞察を与え、不一致予測モデルをさらに洗練するための道を開く。
関連論文リスト
- JuniperLiu at CoMeDi Shared Task: Models as Annotators in Lexical Semantics Disagreements [5.336744348106775]
本稿では,CoMeDi共有タスクのためのシステムの結果について述べる。
提案手法は,事前学習された言語モデルに基づいて学習したアンサンブルベースおよびしきい値ベース手法とモデル戦略を組み合わせる。
モデル操作における連続的関連度スコアの標準偏差は,人間の不一致アノテーションと相関することがわかった。
論文 参考訳(メタデータ) (2024-11-19T00:50:06Z) - Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - Co-guiding for Multi-intent Spoken Language Understanding [53.30511968323911]
本稿では,2つのタスク間の相互指導を実現するための2段階のフレームワークを実装した,コガイドネットと呼ばれる新しいモデルを提案する。
第1段階では,単一タスクによる教師付きコントラスト学習を提案し,第2段階ではコガイドによる教師付きコントラスト学習を提案する。
マルチインテリジェントSLU実験の結果,我々のモデルは既存のモデルよりも大きなマージンで優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-22T08:06:22Z) - Enhancing Coherence of Extractive Summarization with Multitask Learning [40.349019691412465]
本研究では,コヒーレンス向上を伴う抽出要約のためのマルチタスク学習アーキテクチャを提案する。
アーキテクチャは、抽出要約器とコヒーレント判別器モジュールとを含む。
実験の結果,提案手法は抽出した要約文の連続文の割合を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2023-05-22T09:20:58Z) - Keywords and Instances: A Hierarchical Contrastive Learning Framework
Unifying Hybrid Granularities for Text Generation [59.01297461453444]
入力テキスト中のハイブリッドな粒度意味を統一する階層的コントラスト学習機構を提案する。
実験により,本モデルがパラフレージング,対話生成,ストーリーテリングタスクにおいて,競争ベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2022-05-26T13:26:03Z) - Speaker Embedding-aware Neural Diarization: a Novel Framework for
Overlapped Speech Diarization in the Meeting Scenario [51.5031673695118]
重なり合う音声のダイアリゼーションを単一ラベル予測問題として再構成する。
話者埋め込み認識型ニューラルダイアリゼーション(SEND)システムを提案する。
論文 参考訳(メタデータ) (2022-03-18T06:40:39Z) - VCDM: Leveraging Variational Bi-encoding and Deep Contextualized Word
Representations for Improved Definition Modeling [24.775371434410328]
定義モデリングの課題は、単語やフレーズの定義を学習することである。
このタスクの既存のアプローチは差別的であり、直接的ではなく暗黙的に分布的意味論と語彙的意味論を組み合わせたものである。
本稿では、文脈内で使われるフレーズとその定義の基盤となる関係を明示的にモデル化するために、連続潜時変数を導入したタスク生成モデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T02:48:44Z) - Semantically Driven Sentence Fusion: Modeling and Evaluation [27.599227950466442]
文融合は関連文をコヒーレントテキストに結合する作業である。
このタスクの現在のトレーニングと評価スキームは、単一の参照基盤構造に基づいている。
このことは、入力文間の意味的関係を頑健に把握することを妨げる。
論文 参考訳(メタデータ) (2020-10-06T10:06:01Z) - Constructing interval variables via faceted Rasch measurement and
multitask deep learning: a hate speech application [63.10266319378212]
本稿では,教師付き深層学習と多面的ラッシュアイテム応答理論(IRT)構築手法を組み合わせることで,連続区間スペクトル上の複素変数を測定する手法を提案する。
われわれは、YouTube、Twitter、Redditから5万件のソーシャルメディアコメントを収集し、1万1000人の米国拠点のAmazon Mechanical Turkの労働者によってラベル付けされたデータセット上で、この新しい手法を実証した。
論文 参考訳(メタデータ) (2020-09-22T02:15:05Z) - Joint Contextual Modeling for ASR Correction and Language Understanding [60.230013453699975]
言語理解(LU)と協調してASR出力の文脈的言語補正を行うマルチタスクニューラルアプローチを提案する。
そこで本研究では,市販のASRおよびLUシステムの誤差率を,少量のドメイン内データを用いてトレーニングしたジョイントモデルと比較して14%削減できることを示した。
論文 参考訳(メタデータ) (2020-01-28T22:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。