論文の概要: Federated Transformed Learning for a Circular, Secure, and Tiny AI
- arxiv url: http://arxiv.org/abs/2311.14371v1
- Date: Fri, 24 Nov 2023 09:33:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:39:05.280282
- Title: Federated Transformed Learning for a Circular, Secure, and Tiny AI
- Title(参考訳): 円形でセキュアで小さなaiのための連合型トランスフォーメーション学習
- Authors: Weisi Guo, Schyler Sun, Bin Li, Sam Blakeman
- Abstract要約: 1)"円" - 以前のタスクの解決方法を忘れずに、新しいタスクを解決できる (2)"セキュア" - 敵対的なデータアタック、(3)"ティニー" - 低消費電力の低コスト組み込みハードウェアで実装できる。
ここでは、5GおよびBeyondネットワークアーキテクチャで変換されたDL表現を実現するというビジョンを打ち出した。
- 参考スコア(独自算出の注目度): 9.137777897977085
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) is penetrating into a diverse range of mass mobility,
smart living, and industrial applications, rapidly transforming the way we live
and work. DL is at the heart of many AI implementations. A key set of
challenges is to produce AI modules that are: (1) "circular" - can solve new
tasks without forgetting how to solve previous ones, (2) "secure" - have
immunity to adversarial data attacks, and (3) "tiny" - implementable in low
power low cost embedded hardware. Clearly it is difficult to achieve all three
aspects on a single horizontal layer of platforms, as the techniques require
transformed deep representations that incur different computation and
communication requirements. Here we set out the vision to achieve transformed
DL representations across a 5G and Beyond networked architecture. We first
detail the cross-sectoral motivations for each challenge area, before
demonstrating recent advances in DL research that can achieve circular, secure,
and tiny AI (CST-AI). Recognising the conflicting demand of each transformed
deep representation, we federate their deep learning transformations and
functionalities across the network to achieve connected run-time capabilities.
- Abstract(参考訳): Deep Learning(DL)は、さまざまな種類のマスモビリティ、スマートリビング、産業アプリケーションに浸透し、私たちの生活や仕事のやり方を急速に変えています。
DLは多くのAI実装の中心にある。
1) "circular" - 前の問題を解決する方法を忘れずに新しいタスクを解決できる、(2)"secure" - 敵対的なデータ攻撃に対する免責を持つ、(3)"tiny" - 低電力の低価格組み込みハードウェアで実装できる。
異なる計算と通信の要求を伴う深い表現を変換する必要があるため、プラットフォームの横1層で3つの側面をすべて達成することは困難である。
ここでは、5GおよびBeyondネットワークアーキテクチャで変換されたDL表現を実現するというビジョンを打ち出した。
まず,各課題領域における横断的モチベーションを詳述し,循環型でセキュアで小さなAI(CST-AI)を実現するDL研究の最近の進歩を示す。
各変換された深層表現の相反する需要を認識し、その深層学習変換とネットワーク全体の機能を統合して、接続されたランタイム機能を実現します。
関連論文リスト
- Solving Multi-Goal Robotic Tasks with Decision Transformer [0.0]
ロボット工学におけるオフラインマルチゴール強化学習のための決定変換器アーキテクチャの新しい適応法を提案する。
われわれのアプローチでは、ゴール固有の情報を意思決定変換器に統合し、オフライン環境で複雑なタスクを処理できる。
論文 参考訳(メタデータ) (2024-10-08T20:35:30Z) - A Survey on Vision-Language-Action Models for Embodied AI [71.16123093739932]
視覚言語アクションモデル(VLA)はロボット学習の基盤となっている。
汎用性、デキスタリティ、一般化可能性など、様々な手法が提案されている。
VLAは、長い水平タスクを実行可能なサブタスクに分解できるハイレベルなタスクプランナとして機能する。
論文 参考訳(メタデータ) (2024-05-23T01:43:54Z) - CORN: Contact-based Object Representation for Nonprehensile Manipulation of General Unseen Objects [1.3299507495084417]
非包括的操作は、野生ではあまりに薄く、大きく、または、そうでなければ不快な物体を操作するために不可欠である。
そこで本研究では,接触型オブジェクト表現と事前学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-16T01:47:53Z) - FedYolo: Augmenting Federated Learning with Pretrained Transformers [61.56476056444933]
本研究では,デバイス上での学習目標を達成するための事前学習型トランスフォーマー(PTF)について検討する。
大規模化により,代替手法間の精度ギャップが小さくなり,ロバスト性も向上することを示す。
最後に、クライアントは単一のPTFを使用して複数の無関係なタスクを同時に解決できる。
論文 参考訳(メタデータ) (2023-07-10T21:08:52Z) - General-Purpose Multimodal Transformer meets Remote Sensing Semantic
Segmentation [35.100738362291416]
マルチモーダルAIは、特にセマンティックセグメンテーションのような複雑なタスクのために、補完的なデータソースを活用する。
汎用マルチモーダルネットワークの最近のトレンドは、最先端の性能を達成する大きな可能性を示している。
本稿では,3次元畳み込みを利用して重要なローカル情報をエンコードし,同時にモーダルな特徴を学習するUNet型モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-07T04:58:34Z) - Dual Vision Transformer [114.1062057736447]
デュアルビジョントランス(Dual-ViT)という,コスト問題を緩和する新しいトランスフォーマーアーキテクチャを提案する。
新しいアーキテクチャでは、トークンベクトルをより効率的にグローバルなセマンティックスに圧縮し、複雑さの順序を減らし、重要なセマンティックパスが組み込まれている。
我々は、Dual-ViTが訓練の複雑さを低減したSOTAトランスフォーマーアーキテクチャよりも優れた精度を提供することを実証的に実証した。
論文 参考訳(メタデータ) (2022-07-11T16:03:44Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Less is More: Pay Less Attention in Vision Transformers [61.05787583247392]
注意の少ないvIsion Transformerは、畳み込み、完全接続層、自己アテンションが、画像パッチシーケンスを処理するためにほぼ同等な数学的表現を持つという事実に基づいている。
提案したLITは、画像分類、オブジェクト検出、インスタンス分割を含む画像認識タスクにおいて有望な性能を達成する。
論文 参考訳(メタデータ) (2021-05-29T05:26:07Z) - Recurrent Multi-view Alignment Network for Unsupervised Surface
Registration [79.72086524370819]
非厳格な登録をエンドツーエンドで学習することは、本質的に高い自由度とラベル付きトレーニングデータの欠如により困難である。
我々は、いくつかの剛性変換のポイントワイドな組み合わせで、非剛性変換を表現することを提案する。
また,投影された多視点2次元深度画像上での3次元形状の類似度を計測する可微分損失関数も導入する。
論文 参考訳(メタデータ) (2020-11-24T14:22:42Z) - From Pixels to Legs: Hierarchical Learning of Quadruped Locomotion [5.725078552513519]
階層的強化学習(HRL)により,四足歩行ロボットがこれらのスキルを両立させることができることを示す。
私たちは、カーブした崖と迷路という2つの異なる環境を歩くようにポリシーを訓練します。
階層型ポリシは,これらの環境において,同時にロココントとナビゲートを学習し,非階層型ニューラルネットワークポリシよりも効率的であることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:55:54Z) - 3D_DEN: Open-ended 3D Object Recognition using Dynamically Expandable
Networks [0.0]
本研究では,新しい3Dオブジェクトカテゴリをオープンエンドで学習できるロボットを実現するために,動的アーキテクチャに基づく新しい深層移動学習手法を提案する。
実験結果から,提案手法は精度に優れ,計算オーバーヘッドを大幅に最小化できることがわかった。
論文 参考訳(メタデータ) (2020-09-15T16:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。