論文の概要: Customized Video QoE Estimation with Algorithm-Agnostic Transfer
Learning
- arxiv url: http://arxiv.org/abs/2003.08730v1
- Date: Thu, 12 Mar 2020 15:28:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:19:09.170339
- Title: Customized Video QoE Estimation with Algorithm-Agnostic Transfer
Learning
- Title(参考訳): アルゴリズム非依存な転送学習によるビデオqoe推定
- Authors: Selim Ickin and Markus Fiedler and Konstantinos Vandikas
- Abstract要約: 小さなデータセット、ソースドメインのユーザプロファイルの多様性の欠如、QoEモデルのターゲットドメインの多様性の多さは、QoEモデルの課題である。
平均オピニオンスコア(MOS)上の汎用指標を分散化されたローカルモデルで共有する、トランスファーラーニングに基づくMLモデルトレーニング手法を提案する。
提案手法は,同一のMLアルゴリズムを実行するために,協調する局所ノードを必要としないため,互いに積み重ねた特定のMLアルゴリズムに非依存であることを示す。
- 参考スコア(独自算出の注目度): 1.452875650827562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of QoE models by means of Machine Learning (ML) is
challenging, amongst others due to small-size datasets, lack of diversity in
user profiles in the source domain, and too much diversity in the target
domains of QoE models. Furthermore, datasets can be hard to share between
research entities, as the machine learning models and the collected user data
from the user studies may be IPR- or GDPR-sensitive. This makes a decentralized
learning-based framework appealing for sharing and aggregating learned
knowledge in-between the local models that map the obtained metrics to the user
QoE, such as Mean Opinion Scores (MOS). In this paper, we present a transfer
learning-based ML model training approach, which allows decentralized local
models to share generic indicators on MOS to learn a generic base model, and
then customize the generic base model further using additional features that
are unique to those specific localized (and potentially sensitive) QoE nodes.
We show that the proposed approach is agnostic to specific ML algorithms,
stacked upon each other, as it does not necessitate the collaborating localized
nodes to run the same ML algorithm. Our reproducible results reveal the
advantages of stacking various generic and specific models with corresponding
weight factors. Moreover, we identify the optimal combination of algorithms and
weight factors for the corresponding localized QoE nodes.
- Abstract(参考訳): 機械学習(ml)によるqoeモデルの開発は、小規模データセット、ソースドメインにおけるユーザプロファイルの多様性の欠如、qoeモデルのターゲットドメインにおける多様性の多さなどにより、困難である。
さらに、機械学習モデルとユーザ研究から収集したユーザデータは、IPRまたはGDPRに敏感である可能性があるため、データセットを研究エンティティ間で共有することは困難である。
これにより、得られたメトリクスをユーザQoE(Mean Opinion Scores (MOS)など)にマップするローカルモデル間の学習知識の共有と集約にアピールする分散学習ベースのフレームワークが実現される。
本稿では,分散ローカルモデルがmos上で汎用的な指標を共有して汎用ベースモデルを学習し,特定の局所的(かつ潜在的に敏感な)qoeノードに特有の追加機能を用いて汎用ベースモデルをカスタマイズする,転送学習に基づくmlモデルトレーニング手法を提案する。
提案手法は,同一のMLアルゴリズムを実行するために,協調する局所ノードを必要としないため,互いに積み重ねた特定のMLアルゴリズムに非依存であることを示す。
再現可能な結果から,種々の汎用モデルおよび特定モデルと対応する重み係数を積み重ねる利点が明らかになった。
さらに,対応する局所化qoeノードに対するアルゴリズムと重み係数の最適組み合わせを同定した。
関連論文リスト
- Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - Distributed Personalized Empirical Risk Minimization [19.087524494290676]
本稿では、異種データからの学習を容易にするために、新たなパラダイムであるPersonalized Empirical Risk Minimization(PERM)を提案する。
本稿では,標準モデル平均化をモデルシャッフルに置き換えた分散アルゴリズムを提案し,すべてのデバイスに対してPERM目標を同時に最適化する。
論文 参考訳(メタデータ) (2023-10-26T20:07:33Z) - Structured Cooperative Learning with Graphical Model Priors [98.53322192624594]
ローカルデータに制限のある分散デバイス上で、さまざまなタスクに対してパーソナライズされたモデルをトレーニングする方法を研究する。
本稿では,デバイス間の協調グラフをグラフィカルモデルにより生成する「構造化協調学習(SCooL)」を提案する。
SCooLを評価し,既存の分散学習手法と比較した。
論文 参考訳(メタデータ) (2023-06-16T02:41:31Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Rethinking Log Odds: Linear Probability Modelling and Expert Advice in
Interpretable Machine Learning [8.831954614241234]
線形化付加モデル(LAM)とSubscaleHedgeの2つの拡張を含む、解釈可能な機械学習モデルのファミリーを紹介する。
LAMは、GAM(General Additive Models)におけるユビキタスなロジスティックリンク関数を置き換えるものであり、SubscaleHedgeはサブスケールと呼ばれる機能のサブセットでトレーニングされたベースモデルを組み合わせるためのエキスパートアドバイスアルゴリズムである。
論文 参考訳(メタデータ) (2022-11-11T17:21:57Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Exploiting Temporal Structures of Cyclostationary Signals for
Data-Driven Single-Channel Source Separation [98.95383921866096]
単一チャネルソース分離(SCSS)の問題点について検討する。
我々は、様々なアプリケーション領域に特に適するサイクロ定常信号に焦点を当てる。
本稿では,最小MSE推定器と競合するU-Netアーキテクチャを用いたディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-22T14:04:56Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Privacy-Preserving Object Detection & Localization Using Distributed
Machine Learning: A Case Study of Infant Eyeblink Conditioning [1.3022864665437273]
オブジェクト検出によく使用される2つのアルゴリズムのスケーラブルな分散学習バージョンについて検討する。
医療分野における両アルゴリズムの適用について,心理学・神経科学のパラダイムを用いて検討した。
論文 参考訳(メタデータ) (2020-10-14T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。