論文の概要: Unified machine learning tasks and datasets for enhancing renewable
energy
- arxiv url: http://arxiv.org/abs/2311.06876v1
- Date: Sun, 12 Nov 2023 15:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:29:58.018820
- Title: Unified machine learning tasks and datasets for enhancing renewable
energy
- Title(参考訳): 再生可能エネルギー向上のための統合機械学習タスクとデータセット
- Authors: Arsam Aryandoust, Thomas Rigoni, Francesco di Stefano, Anthony Patt
- Abstract要約: ETT-17(Energy Transition Tasks-17)は再生可能エネルギーの増強に関連する17のデータセットの集合である。
すべてのタスクとデータセットを統一し、単一のマルチタスクMLモデルで解決できるようにします。
- 参考スコア(独自算出の注目度): 0.8356833388425764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-tasking machine learning (ML) models exhibit prediction abilities in
domains with little to no training data available (few-shot and zero-shot
learning). Over-parameterized ML models are further capable of zero-loss
training and near-optimal generalization performance. An open research question
is, how these novel paradigms contribute to solving tasks related to enhancing
the renewable energy transition and mitigating climate change. A collection of
unified ML tasks and datasets from this domain can largely facilitate the
development and empirical testing of such models, but is currently missing.
Here, we introduce the ETT-17 (Energy Transition Tasks-17), a collection of 17
datasets from six different application domains related to enhancing renewable
energy, including out-of-distribution validation and testing data. We unify all
tasks and datasets, such that they can be solved using a single multi-tasking
ML model. We further analyse the dimensions of each dataset; investigate what
they require for designing over-parameterized models; introduce a set of
dataset scores that describe important properties of each task and dataset; and
provide performance benchmarks.
- Abstract(参考訳): マルチタスク機械学習(ml)モデルは、トレーニングデータ(few-shotとzero-shot learning)がほとんどないドメインで予測能力を示す。
過パラメータmlモデルはさらにゼロロストレーニングとほぼ最適一般化性能を持つ。
オープンな研究課題は、これらの新しいパラダイムが再生可能エネルギー移行の促進と気候変動の緩和に関連する課題にどのように貢献するかである。
このドメインから統合されたMLタスクとデータセットのコレクションは、そのようなモデルの開発と経験的テストを大幅に促進するが、現在は欠落している。
本稿では、再生可能エネルギーの強化に関連する6つのアプリケーションドメインから17のデータセットを収集したett-17(energy transition tasks-17)を紹介する。
すべてのタスクとデータセットを統一し、単一のマルチタスクMLモデルで解決できるようにします。
さらに、各データセットの次元を分析し、過パラメータ化モデルの設計に必要なものを調査し、各タスクとデータセットの重要な特性を記述したデータセットスコアのセットを導入し、パフォーマンスベンチマークを提供します。
関連論文リスト
- Empowering Large Language Models in Wireless Communication: A Novel Dataset and Fine-Tuning Framework [81.29965270493238]
我々は,無線通信アプリケーションのための大規模言語モデル(LLM)の評価と微調整を目的とした,特殊なデータセットを開発した。
データセットには、真/偽と複数選択型を含む、さまざまなマルチホップ質問が含まれている。
本稿では,PVI(Pointwise V-Information)に基づく微調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T16:19:53Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Advancing Multimodal Large Language Models in Chart Question Answering with Visualization-Referenced Instruction Tuning [1.6570772838074355]
マルチモーダル大言語モデル(MLLM)は、チャート質問応答(CQA)に大きな可能性を示す
近年の取り組みは、データ収集と合成によるデータセットのスケールアップに重点を置いている。
本稿では,トレーニングデータセットの強化とモデル開発を指導するための,可視化参照型指導チューニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T17:04:34Z) - An Efficient General-Purpose Modular Vision Model via Multi-Task
Heterogeneous Training [79.78201886156513]
本稿では、複数の視覚タスクを実行でき、他の下流タスクに効率的に適応できるモデルを提案する。
提案手法は,単一タスク状態モデルに匹敵する結果を達成し,下流タスクの強力な一般化を実証する。
論文 参考訳(メタデータ) (2023-06-29T17:59:57Z) - Diffusion Model is an Effective Planner and Data Synthesizer for
Multi-Task Reinforcement Learning [101.66860222415512]
Multi-Task Diffusion Model (textscMTDiff) は、トランスフォーマーのバックボーンを組み込んだ拡散に基づく手法であり、生成計画とデータ合成のための素早い学習を行う。
生成計画において、textscMTDiffはMeta-World上の50のタスクとMaze2D上の8のマップで最先端のアルゴリズムより優れています。
論文 参考訳(メタデータ) (2023-05-29T05:20:38Z) - InPars: Data Augmentation for Information Retrieval using Large Language
Models [5.851846467503597]
本研究では,大規模な事前学習型言語モデルの,情報検索タスクのための合成データ生成機能を利用する。
我々は、教師なしデータセットのみに微調整されたモデルが、BM25のような強力なベースラインより優れていることを示す。
教師付きデータと我々の合成データの両方に微調整されたレトリバーは、教師付きデータにのみ微調整されたモデルよりも優れたゼロショット転送を実現する。
論文 参考訳(メタデータ) (2022-02-10T16:52:45Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。