論文の概要: Fast Learning of MNL Model from General Partial Rankings with
Application to Network Formation Modeling
- arxiv url: http://arxiv.org/abs/2112.15575v1
- Date: Fri, 31 Dec 2021 18:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-03 14:11:32.560960
- Title: Fast Learning of MNL Model from General Partial Rankings with
Application to Network Formation Modeling
- Title(参考訳): 一般部分ランクからのMNLモデルの高速学習とネットワーク形成モデルへの応用
- Authors: Jiaqi Ma, Xingjian Zhang, Qiaozhu Mei
- Abstract要約: MNL(Multinomial Logit)は、最も人気のある個別選択モデルの一つで、ランキングデータのモデル化に広く利用されている。
本研究では,時間的複雑性における一般部分ランク付けの確率を近似するスケーラブルな手法を開発した。
提案手法は,選択に基づくネットワーク形成モデリングへの応用に特に有用であることを示す。
- 参考スコア(独自算出の注目度): 15.205182490978006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multinomial Logit (MNL) is one of the most popular discrete choice models and
has been widely used to model ranking data. However, there is a long-standing
technical challenge of learning MNL from many real-world ranking data: exact
calculation of the MNL likelihood of \emph{partial rankings} is generally
intractable. In this work, we develop a scalable method for approximating the
MNL likelihood of general partial rankings in polynomial time complexity. We
also extend the proposed method to learn mixture of MNL. We demonstrate that
the proposed methods are particularly helpful for applications to choice-based
network formation modeling, where the formation of new edges in a network is
viewed as individuals making choices of their friends over a candidate set. The
problem of learning mixture of MNL models from partial rankings naturally
arises in such applications. And the proposed methods can be used to learn MNL
models from network data without the strong assumption that temporal orders of
all the edge formation are available. We conduct experiments on both synthetic
and real-world network data to demonstrate that the proposed methods achieve
more accurate parameter estimation and better fitness of data compared to
conventional methods.
- Abstract(参考訳): MNL(Multinomial Logit)は最も人気のある個別選択モデルの一つで、ランキングデータのモデル化に広く利用されている。
しかし、多くの実世界のランキングデータからMNLを学習するための長年の技術的課題がある: \emph{partial rankings} の MNL の正確な計算は、一般的には難解である。
本研究では,多項式時間複雑性における一般部分ランクのmnl確率を近似するスケーラブルな手法を開発した。
また,提案手法を拡張してMNLの混合学習を行う。
提案手法は,ネットワーク内の新たなエッジの形成を,候補集合よりも友達を選択する個人としてみなす,選択に基づくネットワーク形成モデリングへの応用に特に有用であることを示す。
部分的なランク付けからmnlモデルの混合を学習する問題は、このような応用において自然に生じる。
また,提案手法は,すべてのエッジ形成の時間順序が利用できるという強い仮定を持たずに,ネットワークデータからmnlモデルを学ぶことができる。
提案手法が従来手法よりも正確なパラメータ推定と適合性を実現することを実証するために,合成ネットワークデータと実世界のネットワークデータの両方について実験を行った。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Formally-Sharp DAgger for MCTS: Lower-Latency Monte Carlo Tree Search
using Data Aggregation with Formal Methods [0.0]
本研究では,モンテカルロ木探索 (MCTS) とディープラーニングを効率よく組み合わせて,高品質な回帰地平線政策を創出する方法について検討する。
モデルチェック手法を用いてMCTSアルゴリズムを誘導し,高品質な意思決定のオフラインサンプルを生成する。
これらのサンプルは、それらを生成するために使用されるポリシーを模倣するニューラルネットワークのトレーニングに使用することができる。
論文 参考訳(メタデータ) (2023-08-15T12:33:58Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - SalientGrads: Sparse Models for Communication Efficient and Data Aware
Distributed Federated Training [1.0413504599164103]
フェデレートラーニング(FL)は、データを収集せずにプライバシを保ちながら、クライアントサイトの分散データを活用したモデルのトレーニングを可能にする。
FLの重要な課題の1つは、リソース制限されたエッジクライアントノードにおける計算の制限と通信帯域の低さである。
本稿では,学習前にデータ認識サブネットワークを選択することで,スパーストレーニングのプロセスを簡単にするSalient Gradsを提案する。
論文 参考訳(メタデータ) (2023-04-15T06:46:37Z) - Data-Free Sketch-Based Image Retrieval [56.96186184599313]
本研究では,事前学習された単一モダリティ分類モデルを用いて,学習データにアクセスせずに検索のためのクロスモーダルな距離空間を学習するData-Free (DF)-SBIRを提案する。
本稿では、写真やスケッチの分類を行うために、独立して訓練されたモデルからの知識を活用できるDF-SBIRの方法論を提案する。
また、トレーニングデータを必要としないデータ依存アプローチと競合するmAPを実現する。
論文 参考訳(メタデータ) (2023-03-14T10:34:07Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - One-shot Federated Learning without Server-side Training [42.59845771101823]
クライアントとサーバ間の通信コストを削減する手段として,ワンショットのフェデレーション学習が人気を集めている。
既存のワンショットFL法のほとんどは知識蒸留に基づいているが、蒸留に基づくアプローチでは追加のトレーニングフェーズが必要であり、公開されているデータセットや生成された擬似サンプルに依存する。
本研究では,サーバサイドのトレーニングなしで,ローカルモデル上で1ラウンドのパラメータアグリゲーションを実行するという,新しいクロスサイロ設定について考察する。
論文 参考訳(メタデータ) (2022-04-26T01:45:37Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。