論文の概要: ExpFinder: An Ensemble Expert Finding Model Integrating $N$-gram Vector
Space Model and $\mu$CO-HITS
- arxiv url: http://arxiv.org/abs/2101.06821v1
- Date: Mon, 18 Jan 2021 00:44:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-27 19:28:28.905417
- Title: ExpFinder: An Ensemble Expert Finding Model Integrating $N$-gram Vector
Space Model and $\mu$CO-HITS
- Title(参考訳): ExpFinder:$N$-gramベクトル空間モデルと$\mu$CO-HITSを統合するアンサンブルエキスパート発見モデル
- Authors: Yong-Bin Kang, Hung Du, Abdur Rahim Mohammad Forkan, Prem Prakash
Jayaraman, Amir Aryani, Timos Sellis (Fellow, IEEE)
- Abstract要約: TextitExpFinder$は、専門家を見つけるための新しいアンサンブルモデルです。
新規な$N$-gramベクトル空間モデル($n$VSM)とグラフベースのモデル($textit$mu$CO-HITS$)を統合する。
- 参考スコア(独自算出の注目度): 0.3560086794419991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Finding an expert plays a crucial role in driving successful collaborations
and speeding up high-quality research development and innovations. However, the
rapid growth of scientific publications and digital expertise data makes
identifying the right experts a challenging problem. Existing approaches for
finding experts given a topic can be categorised into information retrieval
techniques based on vector space models, document language models, and
graph-based models. In this paper, we propose $\textit{ExpFinder}$, a new
ensemble model for expert finding, that integrates a novel $N$-gram vector
space model, denoted as $n$VSM, and a graph-based model, denoted as
$\textit{$\mu$CO-HITS}$, that is a proposed variation of the CO-HITS algorithm.
The key of $n$VSM is to exploit recent inverse document frequency weighting
method for $N$-gram words and $\textit{ExpFinder}$ incorporates $n$VSM into
$\textit{$\mu$CO-HITS}$ to achieve expert finding. We comprehensively evaluate
$\textit{ExpFinder}$ on four different datasets from the academic domains in
comparison with six different expert finding models. The evaluation results
show that $\textit{ExpFinder}$ is a highly effective model for expert finding,
substantially outperforming all the compared models in 19% to 160.2%.
- Abstract(参考訳): 専門家を見つけることは、コラボレーションを成功させ、高品質の研究開発とイノベーションをスピードアップする上で重要な役割を担います。
しかし、科学出版物やデジタル専門データの急速な成長により、適切な専門家を特定することが困難な問題となっている。
あるトピックに与えられた専門家を見つける既存のアプローチは、ベクトル空間モデル、文書言語モデル、グラフベースモデルに基づく情報検索技術に分類することができる。
本稿では、専門家探しのための新しいアンサンブルモデルである$\textit{expfinder}$を提案する。これは、新しい$n$-gramベクトル空間モデル($n$vsmと表記される)と、$\textit{$\mu$co-hits}$と表記されるグラフベースモデルとを統合したものである。
n$vsm の鍵は、n$-gram ワードと $\textit{expfinder}$ に対する最近の逆文書の頻度重み付け手法を、専門家を見つけるために$n$vsm を$\textit{$\mu$co-hits}$ に組み込むことである。
学術分野の4つの異なるデータセットに対して,6つの専門家発見モデルと比較して,$\textit{expfinder}$を総合的に評価する。
評価の結果、$\textit{expfinder}$は専門家の発見に非常に効果的なモデルであり、19%から160.2%で比較した全てのモデルを大きく上回っている。
- 全文 参考訳へのリンク
関連論文リスト
- Datamodels: Predicting Predictions from Training Data [86.66720175866415]
本稿では,モデルクラスの振る舞いを学習データの観点から分析するための概念的枠組みであるデータモデリングについて述べる。
単純な線形データモデルであっても、モデル出力をうまく予測できることが示される。
論文 参考訳(メタデータ) (2022-02-01T18:15:24Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Learning the hypotheses space from data through a U-curve algorithm: a
statistically consistent complexity regularizer for Model Selection [0.0]
本稿では, モデル選択に対するデータ駆動型, 一貫性, 非排他的アプローチを提案する。
我々の主な貢献は、$mathbbL(mathcalH)$上で正規化モデル選択を行うデータ駆動の一般学習アルゴリズムである。
このアプローチの顕著な結果は、$mathbbL(mathcalH)$の非排他的探索が最適解を返すことができる条件である。
論文 参考訳(メタデータ) (2021-09-08T18:28:56Z) - Mediated Uncoupled Learning: Learning Functions without Direct
Input-output Correspondences [80.95776331769899]
ペア化されたデータがない場合、$X$から$Y$を予測するタスクを考えます。
単純なアプローチは、$S_X$で$U$から$U$を予測し、$S_Y$で$U$から$Y$を予測することである。
我々は$U$を予測しない新しい方法を提案するが、$f(X)$と$S_X$をトレーニングすることで$Y = f(X)$を直接学習し、$h(U)$を予測する。
論文 参考訳(メタデータ) (2021-07-16T22:13:29Z) - Likelihood estimation of sparse topic distributions in topic models and
its applications to Wasserstein document distance calculations [3.679981089267181]
トピックモデルでは、$ptimes n$予測ワード頻度行列は$ptimes K$ワードトピック行列$A$として分解される。
A$の列は、すべてのドキュメントに共通する$p$の混合コンポーネントと見なされる。
A$が未知の場合、プラグインに対応する可能性関数を最適化して$T$を見積もる。
論文 参考訳(メタデータ) (2021-07-12T22:22:32Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - An Online Riemannian PCA for Stochastic Canonical Correlation Analysis [37.8212762083567]
投影行列の再パラメータ化を用いた正準相関解析(CCA)のための効率的なアルゴリズム(RSG+)を提案する。
本論文は,その特性の定式化と技術的解析に主眼を置いているが,本実験により,一般的なデータセットに対する経験的挙動が極めて有望であることが確認された。
論文 参考訳(メタデータ) (2021-06-08T23:38:29Z) - Exploring Sparse Expert Models and Beyond [51.90860155810848]
Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つが、一定の計算コストで有望な結果が得られる。
本稿では,専門家を異なるプロトタイプに分割し,上位1ドルのルーティングに$k$を適用する,エキスパートプロトタイピングというシンプルな手法を提案する。
この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-05-31T16:12:44Z) - Learning a Latent Simplex in Input-Sparsity Time [58.30321592603066]
我々は、$AinmathbbRdtimes n$へのアクセスを考えると、潜入$k$-vertex simplex $KsubsetmathbbRdtimes n$を学習する問題を考える。
実行時間における$k$への依存は、トップ$k$特異値の質量が$a$であるという自然な仮定から不要であることを示す。
論文 参考訳(メタデータ) (2021-05-17T16:40:48Z) - Categorical Representation Learning: Morphism is All You Need [0.0]
分類表現学習のための構築と「$textitcategorifier$」の基礎について紹介する。
データセット内のすべてのオブジェクト$mathcals$は$textitencoding map$ $e: mathcalobj(mathcals)tomathbbrn $によって$mathbbrn$のベクトルとして表現できる。
概念実証として,我々の技術を搭載したテキスト翻訳者の例を示し,分類的学習モデルがそれを上回ることを示す。
論文 参考訳(メタデータ) (2021-03-26T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。