論文の概要: SECure: A Social and Environmental Certificate for AI Systems
- arxiv url: http://arxiv.org/abs/2006.06217v2
- Date: Sun, 19 Jul 2020 12:39:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:30:26.796623
- Title: SECure: A Social and Environmental Certificate for AI Systems
- Title(参考訳): SECure:AIシステムのための社会的および環境証明書
- Authors: Abhishek Gupta (1 and 2), Camylle Lanteigne (1 and 3), and Sara
Kingsley (4) ((1) Montreal AI Ethics Institute, (2) Microsoft, (3) McGill
University, (4) Carnegie Mellon University)
- Abstract要約: この研究は、社会技術と技術を組み合わせたESGにインスパイアされたフレームワークを提案し、社会に責任を負うAIシステムを構築する。
このフレームワークには、計算効率のよい機械学習、フェデレーション付き学習、データ主権、LEEDesque証明書の4つの柱がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a world increasingly dominated by AI applications, an understudied aspect
is the carbon and social footprint of these power-hungry algorithms that
require copious computation and a trove of data for training and prediction.
While profitable in the short-term, these practices are unsustainable and
socially extractive from both a data-use and energy-use perspective. This work
proposes an ESG-inspired framework combining socio-technical measures to build
eco-socially responsible AI systems. The framework has four pillars:
compute-efficient machine learning, federated learning, data sovereignty, and a
LEEDesque certificate.
Compute-efficient machine learning is the use of compressed network
architectures that show marginal decreases in accuracy. Federated learning
augments the first pillar's impact through the use of techniques that
distribute computational loads across idle capacity on devices. This is paired
with the third pillar of data sovereignty to ensure the privacy of user data
via techniques like use-based privacy and differential privacy. The final
pillar ties all these factors together and certifies products and services in a
standardized manner on their environmental and social impacts, allowing
consumers to align their purchase with their values.
- Abstract(参考訳): aiアプリケーションによってますます支配される世界において、これらのパワーハングリーアルゴリズムの炭素と社会的足跡は、トレーニングと予測のために大量のデータを必要とする。
短期的には黒字だが、これらの慣行は持続不可能であり、データ利用とエネルギー利用の両方の観点から社会的に抽出される。
この研究は、社会技術と技術を組み合わせたESGにインスパイアされたフレームワークを提案し、社会に責任を負うAIシステムを構築する。
このフレームワークには4つの柱がある: 計算効率のよい機械学習、連合学習、データの主権、リーデスク証明書。
計算効率のよい機械学習は、圧縮されたネットワークアーキテクチャを使用し、精度の限界的な低下を示す。
フェデレーション学習は、アイドル容量に分散した計算負荷をデバイスに分散する技術を使用することで、最初の柱の影響を増強する。
これはデータ主権の第3の柱と組み合わせることで、使用ベースのプライバシーやディファレンシャルプライバシといった技術を通じて、ユーザデータのプライバシを確保する。
最後の柱は、これらすべての要因を結びつけ、消費者が購入した商品とサービスを、環境や社会的影響に標準化された方法で認証する。
関連論文リスト
- Leveraging Federated Learning and Edge Computing for Recommendation
Systems within Cloud Computing Networks [3.36271475827981]
エッジインテリジェンスの鍵となる技術は、フェデレートラーニング(FL)として知られる、プライバシ保護機械学習パラダイムである。
ノード障害とデバイス終了を減らすため、階層的フェデレートラーニング(HFL)フレームワークが提案され、指定されたクラスタリーダが中間モデルアグリゲーションを通じてデータオーナをサポートする。
ユーザエクスペリエンスの品質(QoE)に対するソフトクリックの影響を軽減するため、著者らは、ユーザQoEを包括的なシステムコストとしてモデル化した。
論文 参考訳(メタデータ) (2024-03-05T17:58:26Z) - An Empirical Study of Efficiency and Privacy of Federated Learning
Algorithms [2.994794762377111]
今日の世界では、IoTネットワークの急速な拡大とスマートデバイスの普及により、相当量の異種データが生成される。
このデータを効果的に扱うためには、プライバシーと効率の両立を保証するために高度なデータ処理技術が必要である。
フェデレーション学習は、モデルをローカルにトレーニングし、データをプライバシを保存するためにサーバに集約する分散学習手法として登場した。
論文 参考訳(メタデータ) (2023-12-24T00:13:41Z) - Decentralised, Scalable and Privacy-Preserving Synthetic Data Generation [8.982917734231165]
我々は、リアルデータのコントリビュータが、微分プライベートな合成データ生成に自律的に参加できる新しいシステムを構築します。
私たちのソリューションは、Solid(Social Linked Data)、MPC(Secure Multi-Party Computation)、Trusted Execution Environments(TEEs)という3つのビルディングブロックに基づいています。
これらの3つの技術が、責任と信頼性のある合成データ生成における様々な課題に効果的に対処できることを示します。
論文 参考訳(メタデータ) (2023-10-30T22:27:32Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Federated Learning-Empowered AI-Generated Content in Wireless Networks [58.48381827268331]
フェデレートドラーニング(FL)は、学習効率を改善し、AIGCのプライバシー保護を達成するために利用することができる。
我々は,AIGCの強化を目的としたFLベースの技術を提案し,ユーザが多様でパーソナライズされた高品質なコンテンツを作成できるようにすることを目的とする。
論文 参考訳(メタデータ) (2023-07-14T04:13:11Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - An Efficient Industrial Federated Learning Framework for AIoT: A Face
Recognition Application [9.977688793193012]
近年,モノの人工知能(AIoT)が注目されている。
データのプライバシーに関する最近の規制は、機密性の高いローカルデータをデータセンターにアップロードすることを妨げる。
顔認識アプリケーションの観点から,AIoTのための効率的な産業連携学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-21T14:03:20Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Learning, Computing, and Trustworthiness in Intelligent IoT
Environments: Performance-Energy Tradeoffs [62.91362897985057]
Intelligent IoT Environment(iIoTe)は、半自律IoTアプリケーションを協調実行可能な異種デバイスで構成されている。
本稿では,これらの技術の現状を概観し,その機能と性能,特にリソース,レイテンシ,プライバシ,エネルギー消費のトレードオフに注目した。
論文 参考訳(メタデータ) (2021-10-04T19:41:42Z) - A Federated Learning Framework in Smart Grid: Securing Power Traces in
Collaborative Learning [7.246377480492976]
本稿では,個別の電力トレースを漏らすことなく,消費電力パターンの協調機械学習を実現するスマートグリッドの連合学習フレームワークを提案する。
ケーススタディによると、Paillierのような適切な暗号化方式では、提案されたフレームワークから構築された機械学習モデルは、損失がなく、プライバシーを保ち、効果的である。
論文 参考訳(メタデータ) (2021-03-22T14:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。