論文の概要: Horizontal Federated Computer Vision
- arxiv url: http://arxiv.org/abs/2401.00390v2
- Date: Fri, 24 May 2024 18:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 08:15:32.420303
- Title: Horizontal Federated Computer Vision
- Title(参考訳): 水平フェデレーションコンピュータビジョン
- Authors: Paul K. Mandal, Cole Leo, Connor Hurley,
- Abstract要約: 本稿では、FRCNN(Ferated Faster R-CNN)とFCN(Ferated Fully Convolutional Network)を用いた画像分割による物体検出と認識の実装について述べる。
提案するフェデレーションモデルでは,視覚データの量増加と分散化がもたらす課題に対処し,プライバシー規制に準拠した効率的なソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the modern world, the amount of visual data recorded has been rapidly increasing. In many cases, data is stored in geographically distinct locations and thus requires a large amount of time and space to consolidate. Sometimes, there are also regulations for privacy protection which prevent data consolidation. In this work, we present federated implementations for object detection and recognition using a federated Faster R-CNN (FRCNN) and image segmentation using a federated Fully Convolutional Network (FCN). Our FRCNN was trained on 5000 examples of the COCO2017 dataset while our FCN was trained on the entire train set of the CamVid dataset. The proposed federated models address the challenges posed by the increasing volume and decentralized nature of visual data, offering efficient solutions in compliance with privacy regulations.
- Abstract(参考訳): 現代の世界では、記録された視覚データの量は急速に増加している。
多くの場合、データは地理的に異なる場所に格納され、統合するには大量の時間と空間を必要とする。
データ統合を防ぐプライバシー保護の規制も時々ある。
本研究では、FRCNN(Ferated Faster R-CNN)とFCN(Ferated Fully Convolutional Network)を用いた画像分割を用いたオブジェクト検出と認識のためのフェデレーション実装を提案する。
FRCNNはCOCO2017データセットの5000例をトレーニングし、FCNはCamVidデータセットの全トレインセットでトレーニングしました。
提案するフェデレーションモデルでは,視覚データの量増加と分散化がもたらす課題に対処し,プライバシー規制に準拠した効率的なソリューションを提供する。
関連論文リスト
- Federated Temporal Graph Clustering [9.779760673367663]
時間グラフクラスタリングは、時間とともに関係や実体が変化する動的なグラフにおいて意味のある構造を発見する複雑なタスクである。
既存の方法は一般的に集中的なデータ収集を必要とし、これはプライバシーと通信上の重大な課題を引き起こす。
複数のクライアントをまたいだグラフニューラルネットワーク(GNN)の分散トレーニングを可能にする新しいフェデレーション時間グラフクラスタリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:04:57Z) - Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - AutoSynth: Learning to Generate 3D Training Data for Object Point Cloud
Registration [69.21282992341007]
Auto Synthは、ポイントクラウド登録のための3Dトレーニングデータを自動的に生成する。
私たちはポイントクラウド登録ネットワークをもっと小さなサロゲートネットワークに置き換え、4056.43$のスピードアップを実現しました。
TUD-L,LINEMOD,Occluded-LINEMODに関する我々の研究結果は,検索データセットでトレーニングされたニューラルネットワークが,広く使用されているModelNet40データセットでトレーニングされたニューラルネットワークよりも一貫してパフォーマンスが向上していることを示す。
論文 参考訳(メタデータ) (2023-09-20T09:29:44Z) - Jammer classification with Federated Learning [13.20023719822086]
ジャミング信号は、その操作を拒否するまで受信機の動作を危険にさらすことができる。
データ駆動モデルはこれらの脅威を検出するのに有用であることが証明されている。
本稿では,各デバイスにおけるジャム信号分類器の訓練におけるフェデレート学習の利用について検討する。
論文 参考訳(メタデータ) (2023-06-05T04:28:04Z) - Scalable Neural Network Training over Distributed Graphs [45.151244961817454]
実世界のグラフデータは、キャパシティの制約のため、多くのマシンに格納されなければならない。
ネットワーク通信は費用がかかり、GNNのトレーニングの主なボトルネックとなっている。
最初のフレームワークは、すべてのネットワーク分散レベルにおいて、GNNのトレーニングに使用することができる。
論文 参考訳(メタデータ) (2023-02-25T10:42:34Z) - Domain Adversarial Graph Convolutional Network Based on RSSI and
Crowdsensing for Indoor Localization [8.406788215294483]
少数のラベル付きサイトサーベイデータと大量のラベル付きクラウドセンシングWiFi指紋を用いてトレーニングできる新しいWiDAGCNモデルを提案する。
本システムは、複数の建物を含む公共の屋内ローカライゼーションデータセットを用いて評価する。
論文 参考訳(メタデータ) (2022-04-06T08:06:27Z) - Adaptive Affinity for Associations in Multi-Target Multi-Camera Tracking [53.668757725179056]
本稿では,MTMCTにおけるアフィニティ推定を対応する対応範囲に適応させるための,単純かつ効果的な手法を提案する。
すべての外見の変化に対処する代わりに、データアソシエーション中に出現する可能性のあるものに特化したアフィニティメトリックを調整します。
ミスマッチを最小限に抑えるため、アダプティブアフィニティモジュールはグローバルなre-ID距離を大幅に改善する。
論文 参考訳(メタデータ) (2021-12-14T18:59:11Z) - Spatial Aggregation and Temporal Convolution Networks for Real-time
Kriging [3.4386226615580107]
SATCNは、モデル仕様を必要とせずに、様々なデータセットに対してテンポラリグを実行する、普遍的で柔軟なフレームワークである。
我々は時間的畳み込みネットワークによってノードをキャプチャし、モデルがさまざまなサイズのデータに対処できるようにする。
我々は、交通や気候記録を含む3つの実世界のデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2021-09-24T18:43:07Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z) - See More, Know More: Unsupervised Video Object Segmentation with
Co-Attention Siamese Networks [184.4379622593225]
教師なしビデオオブジェクトセグメンテーションタスクに対処するため,CO-attention Siamese Network (COSNet) と呼ばれる新しいネットワークを導入する。
我々は,ビデオフレーム間の固有相関の重要性を強調し,グローバルなコアテンション機構を取り入れた。
本稿では、ビデオ内のリッチなコンテキストをマイニングするために、異なるコアテンションの変種を導出する、統一的でエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-01-19T11:10:39Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。