論文の概要: Enhancing Software Related Information Extraction with Generative Language Models through Single-Choice Question Answering
- arxiv url: http://arxiv.org/abs/2404.05587v1
- Date: Mon, 8 Apr 2024 15:00:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 13:55:49.112556
- Title: Enhancing Software Related Information Extraction with Generative Language Models through Single-Choice Question Answering
- Title(参考訳): 単一質問応答による生成言語モデルによるソフトウェア関連情報抽出の強化
- Authors: Wolfgang Otto, Sharmila Upadhyaya, Stefan Dietze,
- Abstract要約: 本稿では,言語モデル(GLM)を用いた学術テキスト間の関係抽出の改善に着目する。
この方法論は、ソフトウェア関連エンティティを抽出するために、GLMのコンテキスト内学習機能の使用を優先する。
SOMD共有タスクへの参加は、正確なソフトウェア引用プラクティスの重要性を強調します。
- 参考スコア(独自算出の注目度): 3.6637903428898055
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper describes our participation in the Shared Task on Software Mentions Disambiguation (SOMD), with a focus on improving relation extraction in scholarly texts through Generative Language Models (GLMs) using single-choice question-answering. The methodology prioritises the use of in-context learning capabilities of GLMs to extract software-related entities and their descriptive attributes, such as distributive information. Our approach uses Retrieval-Augmented Generation (RAG) techniques and GLMs for Named Entity Recognition (NER) and Attributive NER to identify relationships between extracted software entities, providing a structured solution for analysing software citations in academic literature. The paper provides a detailed description of our approach, demonstrating how using GLMs in a single-choice QA paradigm can greatly enhance IE methodologies. Our participation in the SOMD shared task highlights the importance of precise software citation practices and showcases our system's ability to overcome the challenges of disambiguating and extracting relationships between software mentions. This sets the groundwork for future research and development in this field.
- Abstract(参考訳): 本稿では,言語モデル(ジェネレーティブ言語モデル,GLM)を用いて,学術テキストにおける関係抽出を改善することを目的としたSOMD(Shared Task on Software Mentions Disambiguation)への参加について述べる。
この方法論は、ソフトウェア関連エンティティと、配布情報などの記述属性を抽出するために、GLMのコンテキスト内学習機能の使用を優先している。
提案手法では,抽出したソフトウェアエンティティ間の関係を識別するために,RAG(Retrieval-Augmented Generation)技術とNER(Named Entity Recognition)のためのGLMとAttributive NERを使用し,学術文献におけるソフトウェア引用の分析のための構造化ソリューションを提供する。
本稿では,提案手法の詳細な説明を行い,単一選択QAパラダイムにおけるGLMの使用がIE方法論を大幅に向上させることを示す。
SOMD共有タスクへの参加は、正確なソフトウェア引用プラクティスの重要性を強調し、ソフトウェア言及間の関係の曖昧さと抽出という課題を克服するシステムの能力を示す。
これにより、この分野での今後の研究開発の基盤となるものとなる。
関連論文リスト
- A Hybrid Approach To Aspect Based Sentiment Analysis Using Transfer Learning [3.30307212568497]
本稿では,移動学習を用いたアスペクトベース感性分析のためのハイブリッド手法を提案する。
このアプローチは、大きな言語モデル(LLM)と従来の構文的依存関係の両方の長所を利用して、弱い教師付きアノテーションを生成することに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-25T23:02:33Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Interactive-KBQA: Multi-Turn Interactions for Knowledge Base Question
Answering with Large Language Models [8.316367927545373]
Interactive-KBQAは知識ベース(KB)との直接インタラクションを通じて論理形式を生成するように設計されたフレームワークである
提案手法は,WebQuestionsSP, ComplexWebQuestions, KQA Pro, MetaQAデータセット上での競合結果を実現する。
論文 参考訳(メタデータ) (2024-02-23T06:32:18Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - From Dialogue to Diagram: Task and Relationship Extraction from Natural
Language for Accelerated Business Process Prototyping [0.0]
本稿では、依存性解析と名前付きエンティティ認識(NER)の利用を、我々のアプローチの中心とする現代的ソリューションを紹介します。
我々は,行動関係の同定にSVO(Subject-Verb-Object)構造を用い,コンテキスト理解のためのWordNetなどの意味分析ツールを統合する。
このシステムはデータ変換と視覚化を十分に処理し、冗長に抽出された情報をBPMN(Business Process Model and Notation)ダイアグラムに変換する。
論文 参考訳(メタデータ) (2023-12-16T12:35:28Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - A Self-enhancement Approach for Domain-specific Chatbot Training via
Knowledge Mining and Digest [62.63606958140248]
大規模言語モデル(LLM)は、特定のドメインで複雑な知識要求クエリを扱う際に、しばしば困難に直面する。
本稿では、ドメイン固有のテキストソースから関連知識を効果的に抽出し、LLMを強化する新しいアプローチを提案する。
我々は知識マイナー、すなわちLLMinerを訓練し、関連する文書から質問応答対を自律的に抽出する。
論文 参考訳(メタデータ) (2023-11-17T16:09:10Z) - An In-Context Schema Understanding Method for Knowledge Base Question
Answering [70.87993081445127]
大きな言語モデル(LLM)は、言語理解において強力な能力を示しており、この課題を解決するために使用することができる。
既存のメソッドは、当初、スキーマ固有の詳細を使わずにLLMを使用してロジックフォームのドラフトを生成することで、この課題を回避している。
そこで本研究では,LLMが文脈内学習を利用してスキーマを直接理解できる簡易なインコンテキスト理解(ICSU)手法を提案する。
論文 参考訳(メタデータ) (2023-10-22T04:19:17Z) - ChatGPT-HealthPrompt. Harnessing the Power of XAI in Prompt-Based
Healthcare Decision Support using ChatGPT [15.973406739758856]
本研究は,OpenAIのChatGPTを中心に,大規模言語モデル(LLM)を臨床意思決定に適用するための革新的なアプローチを提案する。
提案手法では,タスク記述,特徴記述,ドメイン知識の統合を前提とした文脈的プロンプトの利用を提案する。
論文 参考訳(メタデータ) (2023-08-17T20:50:46Z) - Prompting ChatGPT in MNER: Enhanced Multimodal Named Entity Recognition
with Auxiliary Refined Knowledge [27.152813529536424]
PGIM - ChatGPTを暗黙の知識基盤として活用することを目的とした2段階のフレームワークを提案する。
PGIMはより効率的なエンティティ予測のための補助知識を生成する。
これは、2つの古典的なMNERデータセットで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-05-20T15:24:38Z) - Synergistic Interplay between Search and Large Language Models for
Information Retrieval [141.18083677333848]
InteRにより、RMはLLM生成した知識コレクションを使用してクエリの知識を拡張することができる。
InteRは、最先端手法と比較して総合的に優れたゼロショット検索性能を実現する。
論文 参考訳(メタデータ) (2023-05-12T11:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。