論文の概要: CareLab at #SMM4H-HeaRD 2025: Insomnia Detection and Food Safety Event Extraction with Domain-Aware Transformers
- arxiv url: http://arxiv.org/abs/2506.18185v1
- Date: Sun, 22 Jun 2025 21:56:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.793488
- Title: CareLab at #SMM4H-HeaRD 2025: Insomnia Detection and Food Safety Event Extraction with Domain-Aware Transformers
- Title(参考訳): CareLab at #SMM4H-HeaRD 2025: Insomnia Detection and Food Safety Event extract with Domain-Aware Transformers (英語)
- Authors: Zihan Liang, Ziwen Pan, Sumon Kanti Dey, Azra Ismail,
- Abstract要約: 本稿では,SMM4H-HeaRD 2025共有タスク,特にタスク4(サブタスク1,2a,2b)とタスク5(サブタスク1,2)について述べる。
第4条は, 臨床ノートにおける不眠症への言及の発見に焦点を当て, 第5条は, ニュース記事から食品安全イベントの抽出に焦点をあてた。
テストセットではF1スコアが0.958で,特にタスク5サブタスク1に重点を置いて,すべてのサブタスクに参加しました。
- 参考スコア(独自算出の注目度): 8.631763683448117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents our system for the SMM4H-HeaRD 2025 shared tasks, specifically Task 4 (Subtasks 1, 2a, and 2b) and Task 5 (Subtasks 1 and 2). Task 4 focused on detecting mentions of insomnia in clinical notes, while Task 5 addressed the extraction of food safety events from news articles. We participated in all subtasks and report key findings across them, with particular emphasis on Task 5 Subtask 1, where our system achieved strong performance-securing first place with an F1 score of 0.958 on the test set. To attain this result, we employed encoder-based models (e.g., RoBERTa), alongside GPT-4 for data augmentation. This paper outlines our approach, including preprocessing, model architecture, and subtask-specific adaptations
- Abstract(参考訳): 本稿では,SMM4H-HeaRD 2025共有タスク,特にタスク4(サブタスク1,2a,2b)とタスク5(サブタスク1,2)について述べる。
第4条は, 臨床ノートにおける不眠症への言及の発見に焦点を当て, 第5条は, ニュース記事から食品安全イベントの抽出に焦点をあてた。
テストセットではF1スコアが0.958で,特にタスク5サブタスク1に重点を置いて,すべてのサブタスクに参加しました。
この結果を得るために、データ拡張にはエンコーダベースのモデル(例えばRoBERTa)とGPT-4を併用した。
本稿では、前処理、モデルアーキテクチャ、サブタスク固有の適応を含む我々のアプローチの概要について述べる。
関連論文リスト
- TaskComplexity: A Dataset for Task Complexity Classification with In-Context Learning, FLAN-T5 and GPT-4o Benchmarks [0.0]
本稿では,プログラムタスクを専門家に分類・割り当てすることの課題について論じる。
様々なWebサイトからタスクを抽出することによって、合計4,112のプログラミングタスクを含む新しいデータセットが作成された。
Webスクレイピング技術は、このプログラム問題のデータセットを体系的に収集するために用いられた。
論文 参考訳(メタデータ) (2024-09-30T11:04:56Z) - TarViS: A Unified Approach for Target-based Video Segmentation [115.5770357189209]
TarViSは、ビデオで任意に定義された「ターゲット」の集合をセグメント化する必要があるあらゆるタスクに適用できる、新しく統合されたネットワークアーキテクチャである。
我々のアプローチは、タスクがこれらのターゲットをどのように定義するかに関して柔軟であり、後者を抽象的な「クエリ」としてモデル化し、ピクセル精度の高いターゲットマスクを予測するのに使用される。
その有効性を示すために、TarViSをビデオインスタンス(VIS)、ビデオパノプティクス(VPS)、ビデオオブジェクト(VOS)、ポイントインテンプラ誘導トラッキング(PET)の4つのタスクに適用する。
論文 参考訳(メタデータ) (2023-01-06T18:59:52Z) - Improving Cross-task Generalization of Unified Table-to-text Models with
Compositional Task Configurations [63.04466647849211]
メソッドは通常、タスク情報をエンコーダのプレフィックスとして単純なデータセット名でエンコードする。
本稿では,エンコーダがタスク間の一般化を改善するためのプロンプトセットであるコンポジションタスク構成を提案する。
これは、モデルがトレーニング中に異なるタスク間で共有知識をより良く学習できるだけでなく、新しい構成を構築することでモデルを制御できることを示している。
論文 参考訳(メタデータ) (2022-12-17T02:20:14Z) - Instruction Tuning for Few-Shot Aspect-Based Sentiment Analysis [72.9124467710526]
生成的アプローチは、テキストから(1つ以上の)4つの要素を1つのタスクとして抽出するために提案されている。
本稿では,ABSAを解くための統一的なフレームワークと,それに関連するサブタスクを提案する。
論文 参考訳(メタデータ) (2022-10-12T23:38:57Z) - Learning Task Automata for Reinforcement Learning using Hidden Markov
Models [37.69303106863453]
本稿では,非マルコフ型タスク仕様を簡潔な有限状態タスクオートマトンとして学習するための新しいパイプラインを提案する。
我々は,その製品 MDP を部分的に観測可能な MDP として扱い,よく知られた Baum-Welch アルゴリズムを用いて隠れマルコフモデルを学習することで,仕様のオートマトンと環境の MDP からなるモデルである製品 MDP を学習する。
我々の学習タスクオートマトンはタスクをその構成サブタスクに分解し、RLエージェントが後に最適なポリシーを合成できる速度を改善する。
論文 参考訳(メタデータ) (2022-08-25T02:58:23Z) - ML_LTU at SemEval-2022 Task 4: T5 Towards Identifying Patronizing and
Condescending Language [1.3445335428144554]
本稿では,SemEval-2022 Task 4: Patronizing and Condescending Language (PCL) Detectionのサブタスク1でLTUの機械学習グループが使用しているシステムについて述べる。
本システムは,事前訓練されたテキスト・テキスト・トランスフォーマ(T5)を微調整し,そのクラス外予測を革新的に削減する。
論文 参考訳(メタデータ) (2022-04-15T12:00:25Z) - BERT based Transformers lead the way in Extraction of Health Information
from Social Media [0.0]
英語ツイートにおける有害薬物効果(ade)の分類・抽出・正規化(task-1)と症状を含むcovid-19ツイートの分類(task-6)の2つの課題に参加した。
サブタスク-1(a)は61%のF1スコアで1位にランクインしました。
サブタスク-1(b)では50%のF1スコアを獲得し、すべての提出物の平均スコアに対して最大で+8%のF1を向上しました。
BERTweetモデルはSMM4H 2021 Task-6で94%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2021-04-15T10:50:21Z) - YNU-HPCC at SemEval-2020 Task 11: LSTM Network for Detection of
Propaganda Techniques in News Articles [5.352512345142247]
本稿では,SemEval-2020タスク11におけるニュース記事のプロパガンダ検出手法について概説する。
本稿では,GloVe単語表現,BERT事前学習モデル,LSTMモデルアーキテクチャを実装した。
本手法は, テストセットにおいて, SIおよびTCサブタスクのランクが17位, 22位, それぞれ有意に向上した。
論文 参考訳(メタデータ) (2020-08-24T02:42:12Z) - BUT-FIT at SemEval-2020 Task 5: Automatic detection of counterfactual
statements with deep pre-trained language representation models [6.853018135783218]
本稿では,BUT-FITによるSemEval-2020 Task 5: Modelling Causal Reasoning in Language: Detecting Counterfactualsについて述べる。
課題は、ある文が偽物を含むかどうかを検出することである。
どちらのサブタスクでも,RoBERTa LRMが最善を尽くすことがわかった。
論文 参考訳(メタデータ) (2020-07-28T11:16:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。