論文の概要: MoT: A Model-Driven Low-Code Approach for Simplifying Cloud-of-Things Application Development
- arxiv url: http://arxiv.org/abs/2512.14613v1
- Date: Tue, 16 Dec 2025 17:21:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.811966
- Title: MoT: A Model-Driven Low-Code Approach for Simplifying Cloud-of-Things Application Development
- Title(参考訳): MoT: クラウド・オブ・Thingsアプリケーション開発を簡単にするためのモデル駆動型低コードアプローチ
- Authors: Cristiano Welter, Kleinner Farias,
- Abstract要約: Model of Things(モット・オブ・モノ)は、クラウド・オブ・モノの開発を簡単にするためのローコード原則を取り入れたモデルベースのアプローチである。
ユーザは、IoTエクスペリエンスが限られていても、MoTにアクセスでき、使用の容易さと有用性が高いと報告した。
- 参考スコア(独自算出の注目度): 0.6660458629649825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The integration of cloud computing and the Internet of Things (IoT) is essential for scalable, intelligent systems. However, developing cloud-of-things (CoT) applications remains challenging. It requires significant technical expertise and lacks standardized, model-driven methodologies. Current approaches fail to ensure interoperability, automation, and efficiency. This study introduces the Model of Things (MoT), a model-based approach that incorporates low-code principles to simplify CoT development. MoT reduces technical barriers by providing a custom UML profile designed for IoT and cloud services. To evaluate MoT, we conducted a case study and a Technology Acceptance Model (TAM) questionnaire. The results confirmed MoT's feasibility, demonstrating that it streamlines CoT application development and deployment. Users found MoT accessible, even with limited IoT experience, and reported high perceived ease of use and usefulness. Qualitative feedback highlighted MoT's ability to reduce complexity and speed up development. MoT offers a promising, model-driven solution for CoT application development. By lowering entry barriers and promoting automation, it enhances both efficiency and flexibility. This study represents a step toward a more user-friendly framework, enabling broader adoption of CoT technologies.
- Abstract(参考訳): スケーラブルでインテリジェントなシステムには、クラウドコンピューティングとIoT(Internet of Things)の統合が不可欠です。
しかし、CoT(Cloud-of-Things)アプリケーションの開発は依然として難しい。
重要な技術的専門知識を必要とし、標準化されたモデル駆動の方法論が欠如している。
現在のアプローチでは、相互運用性、自動化、効率性の確保に失敗している。
この研究では、CoT開発を単純化するローコード原則を取り入れたモデルベースのアプローチであるModel of Things(MoT)を紹介します。
MoTはIoTやクラウドサービス用に設計されたカスタムUMLプロファイルを提供することで、技術的な障壁を低減する。
MoTを評価するために,ケーススタディとTAM (Technology Acceptance Model) のアンケートを行った。
結果はMoTの実現可能性を確認し、CoTアプリケーション開発とデプロイメントを合理化することを示した。
ユーザは、IoTエクスペリエンスが限られていても、MoTにアクセスでき、使用の容易さと有用性が高いと報告した。
質的なフィードバックは、MoTが複雑さを減らし、開発をスピードアップする能力を強調した。
MoTはCoTアプリケーション開発に有望でモデル駆動のソリューションを提供する。
参入障壁を低くし、自動化を促進することで、効率性と柔軟性の両方を高める。
この研究は、よりユーザフレンドリなフレームワークへの一歩であり、CoTテクノロジの広範な採用を可能にします。
関連論文リスト
- PICKT: Practical Interlinked Concept Knowledge Tracing for Personalized Learning using Knowledge Map Concept Relations [2.449909275410288]
本稿では,学生のインタラクションのシーケンスを分析し,知識獲得レベルを予測する知識追跡モデルのコア技術に焦点をあてる。
知識マップは、質問や概念テキスト情報を考慮した概念間の関係を構造化し、冷戦開始時においても効果的な知識追跡を可能にする。
論文 参考訳(メタデータ) (2025-12-08T05:24:17Z) - NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - EasySteer: A Unified Framework for High-Performance and Extensible LLM Steering [55.56674028743782]
大規模言語モデル(LLM)のステアリングは、推論時にモデル動作を制御するための有望なパラダイムとして登場した。
我々は,vLLM上に構築された高性能LLMステアリングのための統合フレームワークであるEasySteerを提案する。
論文 参考訳(メタデータ) (2025-09-29T17:59:07Z) - AI Flow: Perspectives, Scenarios, and Approaches [51.38621621775711]
私たちは最先端のITとCTの進歩を統合するフレームワークであるAI Flowを紹介します。
まず、デバイスエッジクラウドフレームワークは、エンドデバイス、エッジサーバ、クラウドクラスタを統合する基盤として機能する。
第2に,家族モデルの概念を導入し,同列に隠れた特徴を持つ様々なサイズのモデルに言及する。
第3に、コネクティビティとインタラクションに基づくインテリジェンスの出現は、AI Flowの新たなパラダイムである。
論文 参考訳(メタデータ) (2025-06-14T12:43:07Z) - Knowledge Grafting of Large Language Models [35.09135973799701]
大規模言語モデル(LLM)研究において,クロスキャパビリティ・トランスファーは重要な課題である。
FuseLLMやFuseChatといった最近の研究は、複数のモデル機能を軽量モデルに転送する可能性を実証している。
本稿では,SkillPackフォーマットのターゲットモデルにソースモデル機能を格納する新しい手法であるGraftLLMを紹介する。
論文 参考訳(メタデータ) (2025-05-24T04:43:24Z) - Modeling in Jjodel: Bridging Complexity and Usability in Model-Driven Engineering [4.7948224390172784]
Jjodelはクラウドベースのリフレクティブプラットフォームで、モデル駆動エンジニアリングの課題に対処するために設計されている。
この記事では、Jjodelの設計の背景にあるモチベーションと要件を説明し、主要な機能を通じてこれらのことを満足させる方法について説明する。
論文 参考訳(メタデータ) (2025-02-13T10:22:25Z) - Recommending Pre-Trained Models for IoT Devices [3.1438343376458837]
PTM(Pre-trained Model)が利用可能になったことで、広範なトレーニングの必要性を減らし、アプリケーション全体の機械学習のデプロイが高速化された。
しかしながら、各モデルの適合性を評価するにはコストがかかりすぎることが多い。LogME、LEEP、ModelSpiderといったアプローチは、徹底的なチューニングなしにタスクの妥当性を見積もることで、モデルの選定を効率化する。
本稿では、ハードウェア制約に関する現在のモデルレコメンデーション手法の限界を特定し、PTM選択のための新しいハードウェア対応手法を提案する。
論文 参考訳(メタデータ) (2024-12-25T19:19:55Z) - Split Knowledge Distillation for Large Models in IoT: Architecture, Challenges, and Solutions [16.25411682771788]
大規模モデル(LM)はIoT(Internet of Things)システムにおいて大きな可能性を秘めており、インテリジェントな音声アシスタント、予測保守、医療監視などのアプリケーションを可能にする。
エッジサーバ上でのLMのトレーニングは、データプライバシの懸念を高め、IoTデバイスに直接デプロイすることは、計算リソースとメモリリソースの制限によって制限される。
そこで本研究では,LMをIoTデバイスのより小型でデプロイ可能なバージョンに効率よく蒸留し,生データをローカルに残すための分割知識蒸留フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-17T02:31:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。