論文の概要: Towards Ubiquitous Indoor Positioning: Comparing Systems across
Heterogeneous Datasets
- arxiv url: http://arxiv.org/abs/2109.09436v1
- Date: Mon, 20 Sep 2021 11:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 00:28:59.656992
- Title: Towards Ubiquitous Indoor Positioning: Comparing Systems across
Heterogeneous Datasets
- Title(参考訳): ユビキタス屋内測位に向けて:異種データセット間の比較
- Authors: Joaqu\'in Torres-Sospedra, Ivo Silva, Lucie Klus, Darwin
Quezada-Gaibor, Antonino Crivello, Paolo Barsocchi, Cristiano Pend\~ao, Elena
Simona Lohan, Jari Nurmi and Adriano Moreira
- Abstract要約: IPS(Indoor Positioning Systems)の評価は、主に研究者やパートナーの施設におけるローカルな配置に依存している。
データセットの夜明けは、IPS評価を機械学習モデルと同じレベルに押し上げている。
本稿では,複数のシナリオにおけるIPSの評価手法を提案する。
- 参考スコア(独自算出の注目度): 1.3814679165245243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The evaluation of Indoor Positioning Systems (IPS) mostly relies on local
deployments in the researchers' or partners' facilities. The complexity of
preparing comprehensive experiments, collecting data, and considering multiple
scenarios usually limits the evaluation area and, therefore, the assessment of
the proposed systems. The requirements and features of controlled experiments
cannot be generalized since the use of the same sensors or anchors density
cannot be guaranteed. The dawn of datasets is pushing IPS evaluation to a
similar level as machine-learning models, where new proposals are evaluated
over many heterogeneous datasets. This paper proposes a way to evaluate IPSs in
multiple scenarios, that is validated with three use cases. The results prove
that the proposed aggregation of the evaluation metric values is a useful tool
for high-level comparison of IPSs.
- Abstract(参考訳): IPS(Indoor Positioning Systems)の評価は、主に研究者やパートナーの施設におけるローカルな配置に依存している。
総合的な実験を作成し、データを収集し、複数のシナリオを考慮する複雑さは、通常、評価範囲を制限し、提案システムの評価を行う。
制御された実験の要求と特徴は、同じセンサーやアンカー密度の使用を保証できないため、一般化できない。
データセットの夜明けは、IPS評価を機械学習モデルと同じレベルに押し上げ、多くの異種データセットに対して新しい提案が評価されている。
本稿では,複数のシナリオにおけるIPSの評価方法を提案する。
その結果,提案した評価基準値の集約はIPSの高レベル比較に有用であることが証明された。
関連論文リスト
- RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [69.4501863547618]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に着目し, 完全性, 幻覚, 不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - PredBench: Benchmarking Spatio-Temporal Prediction across Diverse Disciplines [86.36060279469304]
予測時間ネットワークの総合評価に適したベンチマークであるPredBenchを紹介する。
このベンチマークでは、広く採用されている12のメソッドと、複数のアプリケーションドメインにまたがる多様なデータセットを統合する。
その多次元評価フレームワークは、総合的なメトリクスセットで分析を広げる。
論文 参考訳(メタデータ) (2024-07-11T11:51:36Z) - Revisiting the Evaluation of Image Synthesis with GANs [55.72247435112475]
本研究では, 合成性能の評価に関する実証的研究を行い, 生成モデルの代表としてGAN(Generative Adversarial Network)を用いた。
特に、表現空間におけるデータポイントの表現方法、選択したサンプルを用いた公平距離の計算方法、各集合から使用可能なインスタンス数など、さまざまな要素の詳細な分析を行う。
論文 参考訳(メタデータ) (2023-04-04T17:54:32Z) - Epistemic Parity: Reproducibility as an Evaluation Metric for
Differential Privacy [9.755020926517291]
本稿では,プロキシタスクの表現性に関する仮定を回避した合成データの評価手法を提案する。
著者が合成データを使用した場合、公表された結論が変わる可能性を測定する。
我々は、より強力なユーティリティ保証を支持し、プライバシー保護を提供する新しい種類のメカニズムを提唱する。
論文 参考訳(メタデータ) (2022-08-26T14:57:21Z) - What are the best systems? New perspectives on NLP Benchmarking [10.27421161397197]
そこで本研究では,各タスクのパフォーマンスに基づいて,システムにランク付けする新しい手法を提案する。
社会的選択理論によって動機付けられ、各タスクによって誘導されるランクを集約することで最終システム順序付けが得られる。
本手法は, 平均集約法とは異なる, 最先端システム上での結論を導出することを示す。
論文 参考訳(メタデータ) (2022-02-08T11:44:20Z) - Better than Average: Paired Evaluation of NLP Systems [31.311553903738798]
評価スコアのインスタンスレベルのペアリングを考慮に入れることの重要性を示す。
平均, 中央値, BT と 2 種類のBT (Elo と TrueSkill) を用いて評価スコアの完全な解析を行うための実用的なツールをリリースする。
論文 参考訳(メタデータ) (2021-10-20T19:40:31Z) - Fairness and underspecification in acoustic scene classification: The
case for disaggregated evaluations [6.186191586944725]
機械学習(ML)アプリケーションにおける不明瞭さと公平さは、最近、MLコミュニティで2つの顕著な問題となっている。
本研究では,アコースティックシーン分類(ASC)モデルに対して,非凝集評価によるより包括的な評価プロセスの必要性を論じる。
本研究では,2つの広く使用されているASCデータセットを用いたトレーニングにおいて,不特定性や公平性の問題を明らかにする上で,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-04T15:23:01Z) - Doing Great at Estimating CATE? On the Neglected Assumptions in
Benchmark Comparisons of Treatment Effect Estimators [91.3755431537592]
もっとも単純な設定であっても、無知性仮定に基づく推定は誤解を招く可能性があることを示す。
異種処理効果評価のための機械学習ベンチマークデータセットを2つ検討した。
ベンチマークデータセットの固有の特性が、他のものよりもいくつかのアルゴリズムを好んでいる点を強調します。
論文 参考訳(メタデータ) (2021-07-28T13:21:27Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - CDEvalSumm: An Empirical Study of Cross-Dataset Evaluation for Neural
Summarization Systems [121.78477833009671]
データセット間設定下での様々な要約モデルの性能について検討する。
異なるドメインの5つのデータセットに対する11の代表的な要約システムに関する包括的な研究は、モデルアーキテクチャと生成方法の影響を明らかにしている。
論文 参考訳(メタデータ) (2020-10-11T02:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。