論文の概要: Materiality and Risk in the Age of Pervasive AI Sensors
- arxiv url: http://arxiv.org/abs/2402.11183v1
- Date: Sat, 17 Feb 2024 03:47:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:48:34.736980
- Title: Materiality and Risk in the Age of Pervasive AI Sensors
- Title(参考訳): 広汎なAIセンサの時代における物質性とリスク
- Authors: Matthew Stewart, Emanuel Moss, Pete Warden, Brian Plancher, Susan
Kennedy, Mona Sloane, Vijay Janapa Reddi
- Abstract要約: センサの拡散はデータ収集とコスト削減を優先する計算モデルによって引き起こされることを示す。
これらのリスクを分析し、妥当性、安全性、セキュリティ、説明責任、解釈可能性、バイアスの問題を強調します。
我々はアルゴリズムシステムの物質性への注意を増すよう主張することで結論付ける。
- 参考スコア(独自算出の注目度): 9.640536372994612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence systems connected to sensor-laden devices are
becoming pervasive, which has significant implications for a range of AI risks,
including to privacy, the environment, autonomy, and more. There is therefore a
growing need for increased accountability around the responsible development
and deployment of these technologies. In this paper, we provide a comprehensive
analysis of the evolution of sensors, the risks they pose by virtue of their
material existence in the world, and the impacts of ubiquitous sensing and
on-device AI. We propose incorporating sensors into risk management frameworks
and call for more responsible sensor and system design paradigms that address
risks of such systems. To do so, we trace the evolution of sensors from analog
devices to intelligent, networked systems capable of real-time data analysis
and decision-making at the extreme edge of the network. We show that the
proliferation of sensors is driven by calculative models that prioritize data
collection and cost reduction and produce risks that emerge around privacy,
surveillance, waste, and power dynamics. We then analyze these risks,
highlighting issues of validity, safety, security, accountability,
interpretability, and bias. We surface sensor-related risks not commonly
captured in existing approaches to AI risk management, using a materiality lens
that reveals how physical sensor properties shape data and algorithmic models.
We conclude by advocating for increased attention to the materiality of
algorithmic systems, and of on-device AI sensors in particular, and highlight
the need for development of a responsible sensor design paradigm that empowers
users and communities and leads to a future of increased fairness,
accountability and transparency.
- Abstract(参考訳): センサーを内蔵したデバイスに接続された人工知能システムは普及しており、プライバシー、環境、自律性など、さまざまなAIリスクに重大な影響を与えている。
したがって、これらの技術の責任ある開発と展開に関する説明責任の増加の必要性が高まっている。
本稿では,センサの進化,それらの物質的存在によるリスク,ユビキタスセンシングとオンデバイスaiの影響について,総合的な分析を行う。
我々は,リスク管理フレームワークにセンサを組み込むことを提案し,より責任のあるセンサとシステム設計パラダイムを提唱する。
そのために、アナログデバイスからインテリジェントなネットワークシステムへのセンサの進化を追跡し、ネットワークの極端でリアルタイムのデータ分析と意思決定を可能にする。
センサの普及は、データの収集とコスト削減を優先し、プライバシ、監視、ムダ、パワーダイナミクスに関するリスクを発生させる、計算モデルによって駆動されることを示している。
次に、これらのリスクを分析し、妥当性、安全性、セキュリティ、説明責任、解釈可能性、バイアスの問題を強調する。
我々は、センサ特性がデータやアルゴリズムモデルをどのように形作るかを明らかにする物質性レンズを用いて、AIのリスク管理に対する既存のアプローチでは一般的に捉えられていないセンサー関連リスクを表面化する。
我々は、アルゴリズムシステム、特にオンデバイスAIセンサーの実用性への注目の高まりを説き、ユーザとコミュニティを活性化し、公正性、説明可能性、透明性を高めるための責任あるセンサー設計パラダイムの開発の必要性を強調した。
関連論文リスト
- From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems [2.226040060318401]
システム理論プロセス分析(STPA)をAIの操作と開発プロセスの解析に応用する。
我々は、機械学習アルゴリズムに依存したシステムと、3つのケーススタディに焦点をあてる。
私たちは、AIシステムに適したいくつかの適応があるにもかかわらず、anAを実行するための重要な概念とステップが容易に適用できることに気付きました。
論文 参考訳(メタデータ) (2024-10-29T20:43:18Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Progress in artificial intelligence applications based on the
combination of self-driven sensors and deep learning [6.117706409613191]
Wang Zhong linと彼のチームは、マックスウェル変位電流を駆動力として、機械的刺激を直接電気信号に変換する三誘電体ナノジェネレータ(TENG)を発明した。
本稿では,優れた音声認識能力を有するTENGのインテリジェントな音響監視・認識システムについて述べる。
論文 参考訳(メタデータ) (2024-01-30T08:53:54Z) - Sense, Predict, Adapt, Repeat: A Blueprint for Design of New Adaptive
AI-Centric Sensing Systems [2.465689259704613]
現在のグローバルなトレンドは、生成されたデータの量は既に人間の消費能力を超えており、AIアルゴリズムが世界中のデータの主要な消費者となっていることを示している。
本稿では、AIアルゴリズムと動的知覚のためのセンシングシステムの必要性を強調し、AIと知覚領域の両方における効率的なセンシングおよび知覚手法の概要を示す。
論文 参考訳(メタデータ) (2023-12-11T15:14:49Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Smart Anomaly Detection in Sensor Systems: A Multi-Perspective Review [0.0]
異常検出は、期待される振る舞いから著しく逸脱するデータパターンを特定することに関わる。
データ分析からe-health、サイバーセキュリティ、予測メンテナンス、障害防止、産業自動化に至るまで、幅広いアプリケーション領域があるため、これは重要な研究課題である。
本稿では,センサシステムの特定の領域における異常検出に使用される最先端手法について概説する。
論文 参考訳(メタデータ) (2020-10-27T09:56:16Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。