論文の概要: Towards Enabling FAIR Dataspaces Using Large Language Models
- arxiv url: http://arxiv.org/abs/2403.15451v1
- Date: Mon, 18 Mar 2024 16:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 02:44:33.710437
- Title: Towards Enabling FAIR Dataspaces Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたFAIRデータ空間の実現に向けて
- Authors: Benedikt T. Arnold, Johannes Theissen-Lipp, Diego Collarana, Christoph Lange, Sandra Geisler, Edward Curry, Stefan Decker,
- Abstract要約: セマンティックWeb技術を活用することは、データ空間をFAIRにするのに役立つが、その複雑さはデータ空間の採用に重大な課題をもたらす。
LLM(Large Language Models)の出現は、これらのモデルがFAIRデータ空間の採用をサポートするにはどうすればよいのかという疑問を提起する。
- 参考スコア(独自算出の注目度): 2.6881629668897613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataspaces have recently gained adoption across various sectors, including traditionally less digitized domains such as culture. Leveraging Semantic Web technologies helps to make dataspaces FAIR, but their complexity poses a significant challenge to the adoption of dataspaces and increases their cost. The advent of Large Language Models (LLMs) raises the question of how these models can support the adoption of FAIR dataspaces. In this work, we demonstrate the potential of LLMs in dataspaces with a concrete example. We also derive a research agenda for exploring this emerging field.
- Abstract(参考訳): データスペースは、伝統的に文化のようなデジタル化されていない領域を含む、さまざまな分野で採用されている。
セマンティックWeb技術を活用することは、データ空間をFAIRにするのに役立つが、その複雑さはデータ空間の採用に重大な課題をもたらし、コストを増大させる。
LLM(Large Language Models)の出現は、これらのモデルがFAIRデータ空間の採用をサポートするにはどうすればよいのかという疑問を提起する。
本研究では,データ空間におけるLLMの可能性を具体例で示す。
我々はまた、この新興分野を探求するための研究課題も導いた。
関連論文リスト
- SilverSight: A Multi-Task Chinese Financial Large Language Model Based on Adaptive Semantic Space Learning [4.540505713937026]
本研究では, 適応意味空間学習(ASSL)フレームワークを導入し, マルチエキスパートモデルの性能向上と選択効率の向上を図る。
研究結果から,本フレームワークはデータの10%に過ぎず,完全なデータトレーニングで得られた結果に近い結果が得られるとともに,強力な一般化能力を示すことがわかった。
論文 参考訳(メタデータ) (2024-04-07T13:02:21Z) - SPACE-IDEAS: A Dataset for Salient Information Detection in Space Innovation [0.3017070810884304]
本研究では,空間領域に関連するイノベーションのアイデアから情報を検出するためのデータセットであるSPACE-IDEASを紹介する。
SPACE-IDEASのテキストは大きく異なり、非公式、技術的、学術的、ビジネス指向の書き込みスタイルを含んでいる。
手動でアノテートしたデータセットに加えて、大きな生成言語モデルを使ってアノテートされた拡張バージョンをリリースします。
論文 参考訳(メタデータ) (2024-03-25T17:04:02Z) - UniTraj: A Unified Framework for Scalable Vehicle Trajectory Prediction [93.77809355002591]
さまざまなデータセット、モデル、評価基準を統一する包括的なフレームワークであるUniTrajを紹介する。
我々は広範な実験を行い、他のデータセットに転送するとモデルの性能が大幅に低下することがわかった。
これらの知見を説明するために,データセットの特徴に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-03-22T10:36:50Z) - Data Augmentation using Large Language Models: Data Perspectives, Learning Paradigms and Challenges [47.45993726498343]
データ強化(DA)は、データ収集を必要とせずにトレーニング例を多様化することにより、モデルパフォーマンスを向上させる重要な手法として登場した。
本調査では,大規模言語モデル(LLM)がDAに与える影響,特に自然言語処理(NLP)以降の文脈において,それらが持つ固有の課題と機会に対処する。
論文 参考訳(メタデータ) (2024-03-05T14:11:54Z) - Large Language Models(LLMs) on Tabular Data: Prediction, Generation, and Understanding -- A Survey [17.19337964440007]
現在、この研究領域における主要なテクニック、メトリクス、データセット、モデル、最適化アプローチを要約し比較する包括的なレビューが欠如しています。
この調査は、これらの領域における最近の進歩を集約し、使用するデータセット、メトリクス、方法論の詳細な調査と分類を提供することによって、このギャップに対処することを目的としている。
既存の文献の強さ、限界、未探索領域、ギャップを識別し、この重要かつ急速に発展する分野における将来の研究の方向性についていくつかの洞察を提供する。
論文 参考訳(メタデータ) (2024-02-27T23:59:01Z) - Query of CC: Unearthing Large Scale Domain-Specific Knowledge from
Public Corpora [104.16648246740543]
大規模言語モデルに基づく効率的なデータ収集手法を提案する。
この方法は、大きな言語モデルを通してシード情報をブートストラップし、公開コーパスから関連データを検索する。
特定のドメインに関する知識関連のデータを収集するだけでなく、潜在的な推論手順でデータを抽出する。
論文 参考訳(メタデータ) (2024-01-26T03:38:23Z) - Can Large Language Models Design Accurate Label Functions? [14.32722091664306]
プログラム弱監督手法はラベル関数(LF)を用いて広範囲なデータセットの高速なラベル付けを容易にする
プレトレーニング言語モデル(PLM)の最近の進歩は、様々なタスクにおいて大きな可能性を秘めている。
本研究では,LFの自動生成にPLMを利用するインタラクティブなフレームワークであるDataSculptを紹介する。
論文 参考訳(メタデータ) (2023-11-01T15:14:46Z) - Explore-Instruct: Enhancing Domain-Specific Instruction Coverage through
Active Exploration [64.58185031596169]
Explore-Instructは、ドメイン固有の命令チューニングで使用されるデータカバレッジを強化する新しいアプローチである。
データ中心分析は、ドメイン固有の命令カバレッジを改善するために提案手法の有効性を検証する。
我々の発見は、特にドメイン固有の文脈において、命令カバレッジを改善するための有望な機会を提供する。
論文 参考訳(メタデータ) (2023-10-13T15:03:15Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - MACRONYM: A Large-Scale Dataset for Multilingual and Multi-Domain
Acronym Extraction [66.60031336330547]
様々なNLPアプリケーションには、頭字語とその拡張形式が必要である。
既存のAE研究の限界の1つは、それらが英語と特定のドメインに限定されていることである。
複数の言語やドメインにアノテートされたデータセットが欠落することは、この分野の研究を妨げる大きな問題となっている。
論文 参考訳(メタデータ) (2022-02-19T23:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。