論文の概要: Aerodynamic Data Predictions Based on Multi-task Learning
- arxiv url: http://arxiv.org/abs/2010.09475v1
- Date: Thu, 15 Oct 2020 01:39:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 03:17:09.379197
- Title: Aerodynamic Data Predictions Based on Multi-task Learning
- Title(参考訳): マルチタスク学習に基づく空力データ予測
- Authors: Liwei Hu, Yu Xiang, Jun Zhan, Zifang Shi and Wenzheng Wang
- Abstract要約: データセットの品質は、空力データモデルの正確性に影響を与える重要な要因の1つである。
本稿では,タスク割り当てと空力特性学習を組み合わせたマルチタスク学習手法を提案する。
その結果,MTLは質の悪いデータセットにおいて,FCNやGANよりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 13.904218352163522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The quality of datasets is one of the key factors that affect the accuracy of
aerodynamic data models. For example, in the uniformly sampled Burgers'
dataset, the insufficient high-speed data is overwhelmed by massive low-speed
data. Predicting high-speed data is more difficult than predicting low-speed
data, owing to that the number of high-speed data is limited, i.e. the quality
of the Burgers' dataset is not satisfactory. To improve the quality of
datasets, traditional methods usually employ the data resampling technology to
produce enough data for the insufficient parts in the original datasets before
modeling, which increases computational costs. Recently, the mixtures of
experts have been used in natural language processing to deal with different
parts of sentences, which provides a solution for eliminating the need for data
resampling in aerodynamic data modeling. Motivated by this, we propose the
multi-task learning (MTL), a datasets quality-adaptive learning scheme, which
combines task allocation and aerodynamic characteristics learning together to
disperse the pressure of the entire learning task. The task allocation divides
a whole learning task into several independent subtasks, while the aerodynamic
characteristics learning learns these subtasks simultaneously to achieve better
precision. Two experiments with poor quality datasets are conducted to verify
the data quality-adaptivity of the MTL to datasets. The results show than the
MTL is more accurate than FCNs and GANs in poor quality datasets.
- Abstract(参考訳): データセットの品質は、空力データモデルの精度に影響を与える重要な要因の1つである。
例えば、均一にサンプリングされたBurgersのデータセットでは、不十分な高速データは大量の低速データによって圧倒される。
高速データの予測は、高速データの数が限られているため、低速データの予測よりも難しい。
データセットの品質を改善するために、従来の手法では、通常、データ再サンプリング技術を使用して、モデリング前に元のデータセットの不十分な部分に対して十分なデータを生成する。
近年,自然言語処理において文の異なる部分を扱うために専門家の混合物が用いられており,空力データモデリングにおけるデータ再サンプリングの必要性をなくすためのソリューションを提供している。
そこで本研究では,タスク割り当てと空力特性学習を組み合わせることで,学習タスク全体の圧力を分散させるマルチタスク学習(mtl)を提案する。
タスク割り当ては、学習タスク全体を複数の独立したサブタスクに分割し、空力特性学習は、これらのサブタスクを同時に学習し、より良い精度を達成する。
データセットに対するMTLのデータ品質適応性を検証するために、低品質データセットを用いた2つの実験を行った。
その結果, MTL よりも FCN や GAN よりも質の悪いデータセットの方が精度が高いことがわかった。
関連論文リスト
- Generating Skyline Datasets for Data Science Models [11.454081868173725]
本稿では,複数のユーザ定義モデルパフォーマンス尺度を最適化することにより,データセットを検出するフレームワークであるMODisを紹介する。
スカイラインデータセットを生成するための3つの実現可能なアルゴリズムを導出する。
スカイラインデータ探索アルゴリズムの有効性と有効性を実験的に検証した。
論文 参考訳(メタデータ) (2025-02-16T20:33:59Z) - Towards Data-Efficient Pretraining for Atomic Property Prediction [51.660835328611626]
タスク関連データセットでの事前トレーニングは、大規模な事前トレーニングと一致するか、あるいは超える可能性があることを示す。
本稿では,コンピュータビジョンのFr'echet Inception Distanceにインスパイアされた,化学類似度指数(CSI)を紹介する。
論文 参考訳(メタデータ) (2025-02-16T11:46:23Z) - Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - Mastering Collaborative Multi-modal Data Selection: A Focus on Informativeness, Uniqueness, and Representativeness [65.01625761120924]
我々は、貴重なサンプルはタスクを知らせ、非冗長であり、サンプル分布(つまり、外れ値ではない)を表すべきであると論じる。
我々は、効果的なデータ選択のために、インフォーマル性、ユニーク性、代表性という3つの重要な原則を活用するコラボレーティブフレームワーク、DataTailorを提案する。
様々なベンチマークの実験により、DataTailorはデータの15%でフルデータの微調整のパフォーマンスの100.8%を達成している。
論文 参考訳(メタデータ) (2024-12-09T08:36:10Z) - A CLIP-Powered Framework for Robust and Generalizable Data Selection [51.46695086779598]
実世界のデータセットは、しばしば冗長でノイズの多いデータを含み、トレーニング効率とモデルパフォーマンスに悪影響を及ぼす。
データ選択は、データセット全体から最も代表的なサンプルを特定することを約束している。
より堅牢で一般化可能なサンプル選択にマルチモーダル情報を活用するCLIPを利用した新しいデータ選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T03:00:58Z) - When More Data Hurts: Optimizing Data Coverage While Mitigating Diversity Induced Underfitting in an Ultra-Fast Machine-Learned Potential [0.0]
本研究では,学習データの多様性が機械学習型原子間ポテンシャル(MLIP)の性能に与える影響について検討する。
専門家と自律的に生成されたデータを使って、トレーニングデータを作成し、4つのフォースフィールドの変種をデータのサブセットに適合させる。
多様性不足は一般化を妨げるが,過度の多様性はMLIPの学習能力を超えうる。
論文 参考訳(メタデータ) (2024-09-11T20:45:44Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - A Proposal to Study "Is High Quality Data All We Need?" [8.122270502556374]
本稿では,高品質なベンチマークデータのサブセットの選択方法,および/または生成方法を検討するための実証的研究を提案する。
私たちは、タスクを学ぶために大きなデータセットが本当に必要かどうか、そして、高品質なデータの小さなサブセットが大きなデータセットを置き換えることができるかどうかに答えようとしています。
論文 参考訳(メタデータ) (2022-03-12T10:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。