論文の概要: BeeManc at the PLABA Track of TAC-2024: RoBERTa for task 1 -- LLaMA3.1 and GPT-4o for task 2
- arxiv url: http://arxiv.org/abs/2411.07381v2
- Date: Mon, 18 Nov 2024 14:51:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:29:38.672449
- Title: BeeManc at the PLABA Track of TAC-2024: RoBERTa for task 1 -- LLaMA3.1 and GPT-4o for task 2
- Title(参考訳): BeeManc at the PLABA Track of TAC-2024:RoBERTa for Task 1 - LLaMA3.1 and GPT-4o for Task 2
- Authors: Zhidong Ling, Zihao Li, Pablo Romero, Lifeng Han, Goran Nenadic,
- Abstract要約: 本報告はPLABA 2024の2つのサブタスクに対応する2つのセクションを含む。
課題1では,微調整されたReBERTa-Baseモデルを用いて,バイオメディカル抽象化における難解な用語,用語,頭字語を識別・分類し,F1スコアを報告した。
第2タスクでは,Llamma3.1-70B-Instruct と GPT-4o を用いて抽象的な適応を完了し,BLEU,SARI,BERTScore,LENS,SALSAでスコアを報告した。
- 参考スコア(独自算出の注目度): 11.380751114611368
- License:
- Abstract: This report is the system description of the BeeManc team for shared task Plain Language Adaptation of Biomedical Abstracts (PLABA) 2024. This report contains two sections corresponding to the two sub-tasks in PLABA 2024. In task one, we applied fine-tuned ReBERTa-Base models to identify and classify the difficult terms, jargon and acronyms in the biomedical abstracts and reported the F1 score. Due to time constraints, we didn't finish the replacement task. In task two, we leveraged Llamma3.1-70B-Instruct and GPT-4o with the one-shot prompts to complete the abstract adaptation and reported the scores in BLEU, SARI, BERTScore, LENS, and SALSA. From the official Evaluation from PLABA-2024 on Task 1A and 1B, our \textbf{much smaller fine-tuned RoBERTa-Base} model ranked 3rd and 2nd respectively on the two sub-task, and the \textbf{1st on averaged F1 scores across the two tasks} from 9 evaluated systems. Our LLaMA-3.1-70B-instructed model achieved the \textbf{highest Completeness} score for Task-2. We share our fine-tuned models and related resources at \url{https://github.com/HECTA-UoM/PLABA2024}
- Abstract(参考訳): 本報告では,2024年度のバイオメディカル・抽象化(PLABA)における共通作業言語適応のためのBeeMancチームのシステム記述について述べる。
本報告はPLABA 2024の2つのサブタスクに対応する2つのセクションを含む。
課題1では,微調整されたReBERTa-Baseモデルを用いて,バイオメディカル抽象化における難解な用語,用語,頭字語を識別・分類し,F1スコアを報告した。
時間的制約のため、置き換え作業は完了しなかった。
第2タスクでは,Llamma3.1-70B-Instruct と GPT-4o を用いて抽象的な適応を完了し,BLEU,SARI,BERTScore,LENS,SALSAでスコアを報告した。
タスク1Aとタスク1BにおけるPLABA-2024のオフィシャル評価から,2つのサブタスクでそれぞれ3位,第2位のRoBERTa-Baseモデルと,評価システムで評価された2つのタスクの平均F1得点のtextbf{1位にランク付けした。
LLaMA-3.1-70B命令モデルでは,タスク2に対してtextbf{highest Completeness}スコアが得られた。
微調整されたモデルと関連するリソースは \url{https://github.com/HECTA-UoM/PLABA2024} で共有しています。
関連論文リスト
- BeeManc at the PLABA Track of TAC-2023: Investigating LLMs and Controllable Attributes for Improving Biomedical Text Readability [16.05119302860606]
バイオメディカルな抽象的単純化に関するPLABA2023タスクへの参加に使用したモデルと手法について述べる。
1)Biomedical-T5やLay-SciFiveなどのドメイン細調整T5ライクなモデル、2)BART-w-CTによる制御可能な属性を持つ細調整BARTLargeモデル、3)ChatGPTプロンプティング。
論文 参考訳(メタデータ) (2024-08-07T16:21:41Z) - Look Before You Leap: A Universal Emergent Decomposition of Retrieval
Tasks in Language Models [58.57279229066477]
本研究では,言語モデル(LM)が様々な状況下での検索タスクをどのように解決するかを検討する。
ORIONは6つのドメインにまたがる構造化された検索タスクの集合である。
LMは内部的にモジュール方式で検索タスクを分解する。
論文 参考訳(メタデータ) (2023-12-13T18:36:43Z) - Overview of the BioLaySumm 2023 Shared Task on Lay Summarization of
Biomedical Research Articles [47.04555835353173]
本稿では,ACL 2023のBioNLPワークショップで開催されているバイオメディカルリサーチ記事のレイ要約(BioLaySumm)における共有タスクの結果について述べる。
この共有タスクの目的は、"遅延要約"を生成することができる抽象的な要約モデルを開発することである。
総合的な結果に加えて,BioLaySumm共有タスクのセットアップと洞察についても報告した。
論文 参考訳(メタデータ) (2023-09-29T15:43:42Z) - SummQA at MEDIQA-Chat 2023:In-Context Learning with GPT-4 for Medical
Summarization [5.92318236682798]
MEDIQA 2023共有タスクにおけるダイアログ2ノート医療要約タスクの新しいシステムを提案する。
課題A(Task-wise summarization)に対する我々のアプローチは、意味論的に類似した対話を選択し、トップk類似の対話をGPT-4のテキスト内例として利用する2段階のプロセスである。
全音素要約(Task B)では、k=1の同様の解を用いる。
論文 参考訳(メタデータ) (2023-06-30T03:14:04Z) - GersteinLab at MEDIQA-Chat 2023: Clinical Note Summarization from
Doctor-Patient Conversations through Fine-tuning and In-context Learning [4.2570830892708225]
本稿では,サブタスクAとサブタスクBの両方を含む,MEDIQA-2023 Dialogue2Note共有タスクへのコントリビューションについて述べる。
本稿では,対話要約問題としてタスクにアプローチし,a)事前学習した対話要約モデルとGPT-3の微調整,およびb)大規模言語モデルであるGPT-4を用いた少数ショットインコンテキスト学習(ICL)の2つのパイプラインを実装した。
どちらの方法もROUGE-1 F1、BERTScore F1(deberta-xlarge-mnli)、BLEURTで優れた結果が得られる。
論文 参考訳(メタデータ) (2023-05-08T19:16:26Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - Event Causality Identification with Causal News Corpus -- Shared Task 3,
CASE 2022 [3.0775142635531685]
事象因果同定 2022 症例の共有タスクには2つのサブタスクが含まれていた。
サブタスク1は、ある文が因果関係を含むか否かを予測するために参加者に要求する。
サブタスク2では、参加者は因果文ごとに原因、効果、信号のスパンを特定する必要があった。
論文 参考訳(メタデータ) (2022-11-22T10:34:09Z) - Challenging BIG-Bench Tasks and Whether Chain-of-Thought Can Solve Them [108.54545521369688]
我々は,BIG-Bench Hard (BBH) と呼ばれる,BIG-Benchタスクに挑戦する23のスイートに焦点を当てる。
BBHタスクへのチェーン・オブ・シント(CoT)の適用により、PaLMは23タスクのうち10タスクにおいて平均的な人間レータ性能を上回り、Codexは23タスクのうち17タスクにおいて平均的な人間レータ性能を上回ります。
論文 参考訳(メタデータ) (2022-10-17T17:08:26Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - BERT based Transformers lead the way in Extraction of Health Information
from Social Media [0.0]
英語ツイートにおける有害薬物効果(ade)の分類・抽出・正規化(task-1)と症状を含むcovid-19ツイートの分類(task-6)の2つの課題に参加した。
サブタスク-1(a)は61%のF1スコアで1位にランクインしました。
サブタスク-1(b)では50%のF1スコアを獲得し、すべての提出物の平均スコアに対して最大で+8%のF1を向上しました。
BERTweetモデルはSMM4H 2021 Task-6で94%のF1スコアを達成しました。
論文 参考訳(メタデータ) (2021-04-15T10:50:21Z) - Dimsum @LaySumm 20: BART-based Approach for Scientific Document
Summarization [50.939885303186195]
BARTモデルに基づくレイサマリー生成システムを構築した。
文ラベルを余分な監視信号として活用し、レイ・サマリゼーションの性能を向上させる。
論文 参考訳(メタデータ) (2020-10-19T06:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。