論文の概要: Variational Item Response Theory: Fast, Accurate, and Expressive
- arxiv url: http://arxiv.org/abs/2002.00276v2
- Date: Mon, 16 Mar 2020 17:19:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:36:06.995250
- Title: Variational Item Response Theory: Fast, Accurate, and Expressive
- Title(参考訳): 変量反応理論:高速・高精度・表現性
- Authors: Mike Wu, Richard L. Davis, Benjamin W. Domingue, Chris Piech, Noah
Goodman
- Abstract要約: 項目応答理論(IRT)は,質問に対する回答に基づいて人間を理解するためのユビキタスモデルである。
IRTの変分ベイズ推定アルゴリズムを導入し,精度を犠牲にすることなく高速かつスケール可能であることを示す。
この手法を認知科学と教育から5つの大規模項目応答データセットに適用すると、ログの可能性が向上し、欠落したデータを出力する可能性が向上する。
- 参考スコア(独自算出の注目度): 11.927952652448285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Item Response Theory (IRT) is a ubiquitous model for understanding humans
based on their responses to questions, used in fields as diverse as education,
medicine and psychology. Large modern datasets offer opportunities to capture
more nuances in human behavior, potentially improving test scoring and better
informing public policy. Yet larger datasets pose a difficult speed / accuracy
challenge to contemporary algorithms for fitting IRT models. We introduce a
variational Bayesian inference algorithm for IRT, and show that it is fast and
scaleable without sacrificing accuracy. Using this inference approach we then
extend classic IRT with expressive Bayesian models of responses. Applying this
method to five large-scale item response datasets from cognitive science and
education yields higher log likelihoods and improvements in imputing missing
data. The algorithm implementation is open-source, and easily usable.
- Abstract(参考訳): IRT(Item Response Theory)は、質問に対する回答に基づいて人間を理解するためのユビキタスモデルであり、教育、医学、心理学など様々な分野で使われている。
大規模な現代的なデータセットは、人間の振舞いのニュアンスを捉える機会を提供し、テストスコアを改善し、公開ポリシーをよりよいものにする可能性がある。
さらに大きなデータセットは、IRTモデルに適合する現代のアルゴリズムに難しいスピード/正確性をもたらす。
IRTの変分ベイズ推定アルゴリズムを導入し,精度を犠牲にすることなく高速かつスケール可能であることを示す。
この推論アプローチを用いて、応答の表現的ベイズモデルで古典的IRTを拡張する。
この手法を認知科学と教育の5つの大規模項目応答データセットに適用すると、より高いログの確率と、欠落データを暗示する精度が向上する。
アルゴリズムの実装はオープンソースであり、簡単に利用できる。
関連論文リスト
- Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - R-Tuning: Instructing Large Language Models to Say `I Don't Know' [66.11375475253007]
大きな言語モデル(LLM)は、優れたパフォーマンスで多くのドメインに革命をもたらしたが、それでもその課題に直面している。
事前の指導チューニング方法は、モデルが知識を知っているかどうかに関わらず、モデルに文章を完成させるよう強制する。
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
実験の結果、R-Tuningは、既知の質問に答えたり、未知の質問に答えるのを控えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - RPLKG: Robust Prompt Learning with Knowledge Graph [11.893917358053004]
知識グラフ(RPLKG)を用いた頑健な学習手法を提案する。
知識グラフに基づいて,多種多様な解釈可能かつ有意義なプロンプトセットを自動設計する。
RPLKGはゼロショット学習に比べてパフォーマンスが大幅に向上した。
論文 参考訳(メタデータ) (2023-04-21T08:22:58Z) - Variational Information Pursuit for Interpretable Predictions [8.894670614193677]
変分情報探索 (V-IP) は, 生成モデル学習の必要性を回避したIPの変分特性である。
V-IPは、典型的にはシーケンシャル意思決定問題で使用される強化学習と比較して、クエリチェーンがはるかに短い。
本稿では,V-IPが生成モデルよりも優れた医療診断などの課題に対して有効であることを示す。
論文 参考訳(メタデータ) (2023-02-06T15:43:48Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Adaptive Learning for Discovery [18.754931451237375]
我々は、ASD(Adaptive Smpling for Discovery)と呼ばれる逐次的な意思決定問題を研究する。
ASDアルゴリズムは、応答の総和を最大化するために、ポイントにゴールを適応的にラベル付けする。
この問題は、例えば、機械学習モデルの助けを借りた薬物発見など、現実世界の発見問題に広く応用されている。
論文 参考訳(メタデータ) (2022-05-30T03:30:45Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Modeling Item Response Theory with Stochastic Variational Inference [8.369065078321215]
項目応答理論(IRT)のための変分ベイズ推論アルゴリズムを提案する。
この手法を5つの大規模項目応答データセットに適用すると、欠落したデータを出力する際の高いログ可能性と高い精度が得られる。
アルゴリズムの実装はオープンソースであり、簡単に利用できる。
論文 参考訳(メタデータ) (2021-08-26T05:00:27Z) - Mitigating Temporal-Drift: A Simple Approach to Keep NER Models Crisp [16.960138447997007]
名前付きエンティティ認識のためのニューラルモデルのパフォーマンスは時間とともに劣化し、停滞する。
我々は,ツイートの傾向を直感的に測定する手法を提案し,この指標を用いて,学習に使用する最も有意義なインスタンスを選択する。
提案手法は,代替データよりも少ないトレーニングデータで予測精度が向上し,魅力的な実用的なソリューションとなることを示す。
論文 参考訳(メタデータ) (2021-04-20T03:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。