論文の概要: Aerodynamic Data Predictions Based on Multi-task Learning
- arxiv url: http://arxiv.org/abs/2010.09475v1
- Date: Thu, 15 Oct 2020 01:39:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:17:09.379197
- Title: Aerodynamic Data Predictions Based on Multi-task Learning
- Title(参考訳): マルチタスク学習に基づく空力データ予測
- Authors: Liwei Hu, Yu Xiang, Jun Zhan, Zifang Shi and Wenzheng Wang
- Abstract要約: データセットの品質は、空力データモデルの正確性に影響を与える重要な要因の1つである。
本稿では,タスク割り当てと空力特性学習を組み合わせたマルチタスク学習手法を提案する。
その結果,MTLは質の悪いデータセットにおいて,FCNやGANよりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 13.904218352163522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of datasets is one of the key factors that affect the accuracy of
aerodynamic data models. For example, in the uniformly sampled Burgers'
dataset, the insufficient high-speed data is overwhelmed by massive low-speed
data. Predicting high-speed data is more difficult than predicting low-speed
data, owing to that the number of high-speed data is limited, i.e. the quality
of the Burgers' dataset is not satisfactory. To improve the quality of
datasets, traditional methods usually employ the data resampling technology to
produce enough data for the insufficient parts in the original datasets before
modeling, which increases computational costs. Recently, the mixtures of
experts have been used in natural language processing to deal with different
parts of sentences, which provides a solution for eliminating the need for data
resampling in aerodynamic data modeling. Motivated by this, we propose the
multi-task learning (MTL), a datasets quality-adaptive learning scheme, which
combines task allocation and aerodynamic characteristics learning together to
disperse the pressure of the entire learning task. The task allocation divides
a whole learning task into several independent subtasks, while the aerodynamic
characteristics learning learns these subtasks simultaneously to achieve better
precision. Two experiments with poor quality datasets are conducted to verify
the data quality-adaptivity of the MTL to datasets. The results show than the
MTL is more accurate than FCNs and GANs in poor quality datasets.
- Abstract(参考訳): データセットの品質は、空力データモデルの精度に影響を与える重要な要因の1つである。
例えば、均一にサンプリングされたBurgersのデータセットでは、不十分な高速データは大量の低速データによって圧倒される。
高速データの予測は、高速データの数が限られているため、低速データの予測よりも難しい。
データセットの品質を改善するために、従来の手法では、通常、データ再サンプリング技術を使用して、モデリング前に元のデータセットの不十分な部分に対して十分なデータを生成する。
近年,自然言語処理において文の異なる部分を扱うために専門家の混合物が用いられており,空力データモデリングにおけるデータ再サンプリングの必要性をなくすためのソリューションを提供している。
そこで本研究では,タスク割り当てと空力特性学習を組み合わせることで,学習タスク全体の圧力を分散させるマルチタスク学習(mtl)を提案する。
タスク割り当ては、学習タスク全体を複数の独立したサブタスクに分割し、空力特性学習は、これらのサブタスクを同時に学習し、より良い精度を達成する。
データセットに対するMTLのデータ品質適応性を検証するために、低品質データセットを用いた2つの実験を行った。
その結果, MTL よりも FCN や GAN よりも質の悪いデータセットの方が精度が高いことがわかった。
関連論文リスト
- A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - When More Data Hurts: Optimizing Data Coverage While Mitigating Diversity Induced Underfitting in an Ultra-Fast Machine-Learned Potential [0.0]
本研究では,学習データの多様性が機械学習型原子間ポテンシャル(MLIP)の性能に与える影響について検討する。
専門家と自律的に生成されたデータを使って、トレーニングデータを作成し、4つのフォースフィールドの変種をデータのサブセットに適合させる。
多様性不足は一般化を妨げるが,過度の多様性はMLIPの学習能力を超えうる。
論文 参考訳(メタデータ) (2024-09-11T20:45:44Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - STAR: Boosting Low-Resource Information Extraction by Structure-to-Text
Data Generation with Large Language Models [56.27786433792638]
STARは大規模言語モデル(LLM)を利用してデータインスタンスを合成するデータ生成手法である。
我々は、初期データインスタンスを取得するための詳細なステップバイステップ命令を設計する。
実験の結果,STARが生成したデータは,低リソースイベント抽出および関係抽出タスクの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-24T12:15:19Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - A Proposal to Study "Is High Quality Data All We Need?" [8.122270502556374]
本稿では,高品質なベンチマークデータのサブセットの選択方法,および/または生成方法を検討するための実証的研究を提案する。
私たちは、タスクを学ぶために大きなデータセットが本当に必要かどうか、そして、高品質なデータの小さなサブセットが大きなデータセットを置き換えることができるかどうかに答えようとしています。
論文 参考訳(メタデータ) (2022-03-12T10:50:13Z) - Deep convolutional generative adversarial networks for traffic data
imputation encoding time series as images [7.053891669775769]
我々は,GAN(Generative Adversarial Network)に基づく交通センサデータ計算フレームワーク(TGAN)を開発した。
本研究では,GASF(Gramian Angular Summation Field)と呼ばれる新しい時間依存符号化手法を開発した。
本研究は,提案モデルにより,平均絶対誤差 (MAE) とルート平均正方形誤差 (RMSE) をベンチマークデータセットの最先端モデルと比較することにより,トラフィックデータ計算精度を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2020-05-05T19:14:02Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。