論文の概要: Error Diversity Matters: An Error-Resistant Ensemble Method for Unsupervised Dependency Parsing
- arxiv url: http://arxiv.org/abs/2412.11543v1
- Date: Mon, 16 Dec 2024 08:23:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:02:45.400720
- Title: Error Diversity Matters: An Error-Resistant Ensemble Method for Unsupervised Dependency Parsing
- Title(参考訳): 誤りの多様性 - 教師なし依存関係解析のための誤り耐性アンサンブル法-
- Authors: Behzad Shayegh, Hobie H. -B. Lee, Xiaodan Zhu, Jackie Chi Kit Cheung, Lili Mou,
- Abstract要約: 本稿では,誤りの蓄積を回避する効率的なアンサンブル選択手法を提案する。
提案手法は,従来のアンサンブル手法と同様に個々のモデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 49.60415088899208
- License:
- Abstract: We address unsupervised dependency parsing by building an ensemble of diverse existing models through post hoc aggregation of their output dependency parse structures. We observe that these ensembles often suffer from low robustness against weak ensemble components due to error accumulation. To tackle this problem, we propose an efficient ensemble-selection approach that avoids error accumulation. Results demonstrate that our approach outperforms each individual model as well as previous ensemble techniques. Additionally, our experiments show that the proposed ensemble-selection method significantly enhances the performance and robustness of our ensemble, surpassing previously proposed strategies, which have not accounted for error diversity.
- Abstract(参考訳): 出力依存パース構造のポストホックアグリゲーションを通じて、様々な既存モデルのアンサンブルを構築することにより、教師なし依存パースに対処する。
これらのアンサンブルは、しばしばエラー蓄積による弱いアンサンブル成分に対するロバスト性に悩まされる。
この問題に対処するために,エラーの蓄積を回避する効率的なアンサンブル選択手法を提案する。
提案手法は,従来のアンサンブル手法と同様に個々のモデルよりも優れていることを示す。
さらに,提案手法は,従来提案されていた誤りの多様性を考慮しておらず,アンサンブルの精度とロバスト性を大幅に向上させることを示す。
関連論文リスト
- Bridging Multicalibration and Out-of-distribution Generalization Beyond Covariate Shift [44.708914058803224]
マルチキャリブレーションによるアウト・オブ・ディストリビューションの一般化のための新しいモデルに依存しない最適化フレームワークを構築した。
本稿では,マルチキャリブレーションとアウト・オブ・ディストリビューションの一般化を両立させるポストプロセッシングアルゴリズムMC-Pseudolabelを提案する。
論文 参考訳(メタデータ) (2024-06-02T08:11:35Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Variational Annealing on Graphs for Combinatorial Optimization [7.378582040635655]
解変数間の統計的依存関係を捉える自己回帰的手法は,多くのCO問題に対して優れた性能を示すことを示す。
本稿では,一組の解変数の構成を単一トークンで表すサブグラフトークン化を提案する。
論文 参考訳(メタデータ) (2023-11-23T18:56:51Z) - Exploring Model Learning Heterogeneity for Boosting Ensemble Robustness [17.127312781074245]
ディープニューラルネットワークアンサンブルは、複雑な学習タスクの一般化性能を改善する可能性を秘めている。
本稿では,高いアンサンブル多様性を有するヘテロジニアス深層アンサンブルの形式解析と経験的評価について述べる。
論文 参考訳(メタデータ) (2023-10-03T17:47:25Z) - Ensemble Distillation for Unsupervised Constituency Parsing [40.96887945888518]
文の語句を言語的に注釈付けされたデータを用いることなく階層構造に整理する,教師なし選挙区構文解析タスクについて検討する。
そこで我々は,教師なし構文解析のための新しいアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2023-10-03T01:02:44Z) - Joint Training of Deep Ensembles Fails Due to Learner Collusion [61.557412796012535]
機械学習モデルのアンサンブルは、単一のモデルよりもパフォーマンスを改善する強力な方法として確立されている。
伝統的に、アンサンブルアルゴリズムは、ジョイントパフォーマンスの最適化を目標として、ベースラーナーを独立または逐次訓練する。
アンサンブルの損失を最小化することは、実際にはほとんど適用されないことを示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:07Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。