論文の概要: A Configuration-First Framework for Reproducible, Low-Code Localization
- arxiv url: http://arxiv.org/abs/2510.25692v1
- Date: Wed, 29 Oct 2025 16:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.81011
- Title: A Configuration-First Framework for Reproducible, Low-Code Localization
- Title(参考訳): 再現可能な低コードローカライゼーションのための構成ファーストフレームワーク
- Authors: Tim Strnad, Blaž Bertalanič, Carolina Fortuna,
- Abstract要約: 無線ローカライゼーションのための低コードで構成優先のフレームワークであるLOCALIZEを紹介する。
このフレームワークは、同等のランタイムとメモリの動作を維持しながら、オーサリングの労力を削減する。
- 参考スコア(独自算出の注目度): 4.904092547705666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is increasingly permeating radio-based localization services. To keep results credible and comparable, everyday workflows should make rigorous experiment specification and exact repeatability the default, without blocking advanced experimentation. However, in practice, researchers face a three-way gap that could be filled by a framework that offers (i) low coding effort for end-to-end studies, (ii) reproducibility by default including versioned code, data, and configurations, controlled randomness, isolated runs, and recorded artifacts, and (iii) built-in extensibility so new models, metrics, and stages can be added with minimal integration effort. Existing tools rarely deliver all three for machine learning in general and localization workflows in particular. In this paper we introduce LOCALIZE, a low-code, configuration-first framework for radio localization in which experiments are declared in human-readable configuration, a workflow orchestrator runs standardized pipelines from data preparation to reporting, and all artifacts, such as datasets, models, metrics, and reports, are versioned. The preconfigured, versioned datasets reduce initial setup and boilerplate, speeding up model development and evaluation. The design, with clear extension points, allows experts to add components without reworking the infrastructure. In a qualitative comparison and a head-to-head study against a plain Jupyter notebook baseline, we show that the framework reduces authoring effort while maintaining comparable runtime and memory behavior. Furthermore, using a Bluetooth Low Energy dataset, we show that scaling across training data (1x to 10x) keeps orchestration overheads bounded as data grows. Overall, the framework makes reproducible machine-learning-based localization experimentation practical, accessible, and extensible.
- Abstract(参考訳): 機械学習がラジオベースのローカライゼーションサービスに浸透しつつある。
結果を信頼性と同等に保つために、日々のワークフローは、高度な実験をブロックすることなく、厳密な実験仕様と正確な再現性をデフォルトにするべきである。
しかし実際には、研究者はフレームワークによって満たされる3方向のギャップに直面している。
(i)エンド・ツー・エンド研究のための低符号化
(ii)既定の再現性には、バージョン付きコード、データ、設定、制御されたランダム性、独立した実行、記録されたアーティファクトが含まれる。
(iii)組み込みの拡張性により、最小限の統合作業で、新しいモデル、メトリクス、ステージを追加できます。
既存のツールは、一般的な機械学習とローカライゼーションワークフローで3つすべてを提供することはめったにない。
本稿では、人間可読な構成で実験を宣言し、ワークフローオーケストレータがデータ準備からレポートまでの標準化パイプラインを実行し、データセット、モデル、メトリクス、レポートなどのすべてのアーティファクトをバージョン管理する、ローコードで構成優先の無線ローカライゼーションフレームワークであるLOCALIZEを紹介する。
事前設定されたバージョン付きデータセットは、初期設定とボイラープレートを削減し、モデルの開発と評価を高速化する。
明確な拡張ポイントを持つ設計では、インフラストラクチャを再設計することなく、専門家がコンポーネントを追加することができる。
通常のJupyterノートブックベースラインに対する定性比較とヘッド・ツー・ヘッドスタディでは、このフレームワークは、同等のランタイムとメモリ動作を維持しながら、オーサリングの労力を削減することを示す。
さらに、Bluetooth Low Energyデータセットを使用して、トレーニングデータ(1倍から10倍)間のスケーリングが、データが大きくなるにつれてオーケストレーションのオーバーヘッドを束縛していることを示す。
全体として、このフレームワークは再現可能な機械学習ベースのローカライゼーション実験を実践的、アクセス可能、拡張可能にしている。
関連論文リスト
- Lifecycle-Aware code generation: Leveraging Software Engineering Phases in LLMs [12.70863561286374]
トレーニング段階と推論段階の両方に中間アーティファクトを組み込んだライフサイクル対応フレームワークを導入する。
実験によると、ライフサイクルレベルの微調整は、微調整の前に同じモデルで最大75%の精度でコードの正しさを向上させる。
オープンソース LLM は、かつて私たちのフレームワークの下で微調整され、コードで事前訓練されたモデルにマッチするか、わずかに優れています。
論文 参考訳(メタデータ) (2025-10-28T02:54:02Z) - A Tale of Two Experts: Cooperative Learning for Source-Free Unsupervised Domain Adaptation [59.88864205383671]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、ソースデータにアクセスすることなく、ターゲットドメインにソース学習モデルを適用するという現実的な課題に対処する。
既存のSFUDA手法は、ソースモデルの予測のみを利用するか、大きなマルチモーダルモデルを微調整する。
本稿では、補完的な洞察と対象データの潜在構造を利用するためのエキスパート協調学習(EXCL)を提案する。
論文 参考訳(メタデータ) (2025-09-26T11:39:50Z) - LITcoder: A General-Purpose Library for Building and Comparing Encoding Models [2.405239115724098]
LITcoderは、ニューラルエンコーディングモデルの構築とベンチマークのためのオープンソースライブラリである。
連続刺激を脳データと整合させ、刺激を表現的特徴に変換し、それらの特徴を脳データにマッピングし、結果として得られるモデルの予測性能を評価するためのツールを提供する。
論文 参考訳(メタデータ) (2025-09-11T05:14:14Z) - MoViAD: A Modular Library for Visual Anomaly Detection [4.790817958353412]
MoViADは、VADモデル、トレーナー、データセット、VADユーティリティへの高速で簡単にアクセスできるように設計されたライブラリである。
連続性、半教師付き、少数ショット、ノイズなど、幅広いシナリオをサポートする。
MoViADは、バックボーンの選択、堅牢な評価VADメトリクス(ピクセルレベルと画像レベル)、および効率分析に有用なプロファイリングツールを統合する。
論文 参考訳(メタデータ) (2025-07-16T09:10:38Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。