論文の概要: OPD@NL4Opt: An ensemble approach for the NER task of the optimization
problem
- arxiv url: http://arxiv.org/abs/2301.02459v1
- Date: Fri, 6 Jan 2023 11:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:31:30.337519
- Title: OPD@NL4Opt: An ensemble approach for the NER task of the optimization
problem
- Title(参考訳): OPD@NL4Opt:最適化問題のNERタスクに対するアンサンブルアプローチ
- Authors: Kangxu Wang, Ze Chen, Jiewen Zheng
- Abstract要約: NL4Optコンペティションサブタスク1(NERタスク)に対するアンサンブルアプローチを提案する。
このタスクでは、まず、競合データセットに基づいて事前訓練された言語モデルを微調整する。
我々はモデル一般化を強化するために、差分学習率と敵の訓練戦略を採用する。
- 参考スコア(独自算出の注目度): 1.3320917259299654
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an ensemble approach for the NL4Opt competition
subtask 1(NER task). For this task, we first fine tune the pretrained language
models based on the competition dataset. Then we adopt differential learning
rates and adversarial training strategies to enhance the model generalization
and robustness. Additionally, we use a model ensemble method for the final
prediction, which achieves a micro-averaged F1 score of 93.3% and attains the
second prize in the NER task.
- Abstract(参考訳): 本稿では,NL4Optコンペティションサブタスク1(NERタスク)に対するアンサンブルアプローチを提案する。
このタスクでは、まず、競合データセットに基づいて事前訓練された言語モデルを微調整する。
そして,モデル一般化とロバスト性を高めるために,差分学習率と対角訓練戦略を採用する。
さらに、モデルアンサンブル法を用いて最終予測を行い、マイクロ平均F1スコア93.3%を達成し、NERタスクにおいて第2位を獲得する。
関連論文リスト
- Infinite forecast combinations based on Dirichlet process [9.326879672480413]
本稿では,ディリクレ過程に基づく深層学習アンサンブル予測モデルを提案する。
単一のベンチマークモデルに比べて予測精度と安定性が大幅に向上している。
論文 参考訳(メタデータ) (2023-11-21T06:41:41Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Ensemble Modeling for Multimodal Visual Action Recognition [50.38638300332429]
マルチモーダル動作認識のためのアンサンブルモデリング手法を提案する。
我々は,MECCANO[21]データセットの長期分布を処理するために,焦点損失の変種を用いて,個別のモダリティモデルを個別に訓練する。
論文 参考訳(メタデータ) (2023-08-10T08:43:20Z) - A Novel Approach for Auto-Formulation of Optimization Problems [66.94228200699997]
Natural Language for Optimization (NL4Opt) NeurIPS 2022コンペティションでは、最適化ソルバのアクセシビリティとユーザビリティの改善に重点を置いている。
本稿では,チームのソリューションについて述べる。
提案手法は,サブタスク1のF1スコアとサブタスク2の0.867の精度を達成し,それぞれ第4位,第3位を獲得した。
論文 参考訳(メタデータ) (2023-02-09T13:57:06Z) - ZhichunRoad at Amazon KDD Cup 2022: MultiTask Pre-Training for
E-Commerce Product Search [4.220439000486713]
検索結果の質を向上させるために,頑健な多言語モデルを提案する。
事前学習の段階では、mlmタスク、分類タスク、コントラスト学習タスクを採用する。
微調整段階では、自信ある学習、指数的移動平均法(EMA)、対人訓練(FGM)、正規化ドロップアウト戦略(R-Drop)を用いる。
論文 参考訳(メタデータ) (2023-01-31T07:31:34Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Prompt-based Pre-trained Model for Personality and Interpersonal
Reactivity Prediction [19.288384399961867]
本稿では、LingJingチームによる主観性・感性・ソーシャルメディア分析に関するワークショップ(WASSA)2022におけるパーソナリティ予測(PER)と反応性指標予測(IRI)の共有タスクについて述べる。
論文 参考訳(メタデータ) (2022-03-23T15:22:34Z) - Model Selection in Batch Policy Optimization [88.52887493684078]
バッチポリシー最適化におけるモデル選択の問題について検討する。
我々は,任意のモデル選択アルゴリズムが競争力を得るために最適にトレードオフすべきという誤りの3つの源を同定する。
論文 参考訳(メタデータ) (2021-12-23T02:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。