論文の概要: CHEER: Rich Model Helps Poor Model via Knowledge Infusion
- arxiv url: http://arxiv.org/abs/2005.10918v1
- Date: Thu, 21 May 2020 21:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 22:54:41.279676
- Title: CHEER: Rich Model Helps Poor Model via Knowledge Infusion
- Title(参考訳): CHEER: 知識注入による貧弱モデルを支援するリッチモデル
- Authors: Cao Xiao, Trong Nghia Hoang, Shenda Hong, Tengfei Ma, Jimeng Sun
- Abstract要約: 我々は、そのようなリッチなモデルを伝達可能な表現に簡潔に要約できる知識注入フレームワークCHEERを開発した。
実験の結果、CHEERは複数の生理的データセットのマクロF1スコアにおいて、ベースラインを5.60%から46.80%上回った。
- 参考スコア(独自算出の注目度): 69.23072792708263
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: There is a growing interest in applying deep learning (DL) to healthcare,
driven by the availability of data with multiple feature channels in rich-data
environments (e.g., intensive care units). However, in many other practical
situations, we can only access data with much fewer feature channels in a
poor-data environments (e.g., at home), which often results in predictive
models with poor performance. How can we boost the performance of models
learned from such poor-data environment by leveraging knowledge extracted from
existing models trained using rich data in a related environment? To address
this question, we develop a knowledge infusion framework named CHEER that can
succinctly summarize such rich model into transferable representations, which
can be incorporated into the poor model to improve its performance. The infused
model is analyzed theoretically and evaluated empirically on several datasets.
Our empirical results showed that CHEER outperformed baselines by 5.60% to
46.80% in terms of the macro-F1 score on multiple physiological datasets.
- Abstract(参考訳): リッチデータ環境(集中治療ユニットなど)に複数の機能チャネルを持つデータの可用性によって、医療にディープラーニング(dl)を適用することへの関心が高まっている。
しかし、他の多くの実践的な状況では、貧弱なデータ環境(例えば家庭)において、機能チャネルがはるかに少ないデータしかアクセスできない。
関連環境でリッチデータを用いて訓練された既存モデルから抽出した知識を活用して、このような貧弱なデータ環境から学習したモデルの性能を向上させるにはどうすればよいか。
そこで我々は,このようなリッチなモデルを伝達可能な表現に簡潔に要約し,貧弱なモデルに組み込んで性能を向上させるための知識注入フレームワークである cheer を開発した。
融合モデルは理論的に解析され、いくつかのデータセットで実証的に評価される。
実験の結果、CHEERは複数の生理的データセットのマクロF1スコアにおいて、ベースラインを5.60%から46.80%上回った。
関連論文リスト
- Does Data-Efficient Generalization Exacerbate Bias in Foundation Models? [2.298227866545911]
ファンデーションモデルは、様々なドメインでラベル効率を持つ堅牢なモデルとして登場した。
事前学習中に機密属性の存在に偏った大量のラベル付きデータを使用することが、モデルの公平性に影響を与えるかどうかは不明である。
本研究は,ブラジルの多ラベル眼科学データセットを微調整する際のファンデーションモデルのバイアスについて検討する。
論文 参考訳(メタデータ) (2024-08-28T22:14:44Z) - CollectiveSFT: Scaling Large Language Models for Chinese Medical Benchmark with Collective Instructions in Healthcare [12.218718086529462]
本研究は中国における総合医療ベンチマーク(CMB)に焦点を当てる。
私たちは、より大きなモデルに匹敵するスコアを得るために、より小さなベースモデルをトレーニングしました。
幅広い指導内容を統合することで,データ品質の不整合などの潜在的な問題に対処する。
論文 参考訳(メタデータ) (2024-07-29T05:00:48Z) - Identifying and Mitigating Model Failures through Few-shot CLIP-aided
Diffusion Generation [65.268245109828]
本稿では,突発的相関に付随する障害モードのテキスト記述を生成するためのエンドツーエンドフレームワークを提案する。
これらの記述は拡散モデルのような生成モデルを用いて合成データを生成するのに使うことができる。
本実験では, ハードサブポピュレーションの精度(sim textbf21%$)が著しく向上した。
論文 参考訳(メタデータ) (2023-12-09T04:43:49Z) - On Memorization in Diffusion Models [46.656797890144105]
より小さなデータセットでは記憶の挙動が生じる傾向があることを示す。
我々は、有効モデル記憶(EMM)の観点から、影響因子がこれらの記憶行動に与える影響を定量化する。
本研究は,拡散モデル利用者にとって実用的意義を持ち,深部生成モデルの理論研究の手がかりを提供する。
論文 参考訳(メタデータ) (2023-10-04T09:04:20Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - MAIN: Multihead-Attention Imputation Networks [4.427447378048202]
本稿では,任意のモデルに適用可能なマルチヘッドアテンションに基づく新しいメカニズムを提案する。
提案手法は、下流タスクの性能を向上させるために、入力データの欠落パターンを誘導的にモデル化する。
論文 参考訳(メタデータ) (2021-02-10T13:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。