論文の概要: Materiality and Risk in the Age of Pervasive AI Sensors
- arxiv url: http://arxiv.org/abs/2402.11183v2
- Date: Mon, 24 Mar 2025 12:48:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:31:47.453123
- Title: Materiality and Risk in the Age of Pervasive AI Sensors
- Title(参考訳): 広汎なAIセンサの時代における物質性とリスク
- Authors: Mona Sloane, Emanuel Moss, Susan Kennedy, Matthew Stewart, Pete Warden, Brian Plancher, Vijay Janapa Reddi,
- Abstract要約: 我々は、センサーの材料価格とその基礎となる計算モデルから生じるAIシステムに関連するリスクの次元を強調する。
我々は,これらのリスクを診断するためのセンサセンシティブなフレームワークを提案し,米国国立標準技術AIリスク管理フレームワークや欧州連合のAI法などの既存のアプローチを補完する。
- 参考スコア(独自算出の注目度): 9.180189171335744
- License:
- Abstract: Artificial intelligence (AI) systems connected to sensor-laden devices are becoming pervasive, which has notable implications for a range of AI risks, including to privacy, the environment, autonomy and more. There is therefore a growing need for increased accountability around the responsible development and deployment of these technologies. Here we highlight the dimensions of risk associated with AI systems that arise from the material affordances of sensors and their underlying calculative models. We propose a sensor-sensitive framework for diagnosing these risks, complementing existing approaches such as the US National Institute of Standards and Technology AI Risk Management Framework and the European Union AI Act, and discuss its implementation. We conclude by advocating for increased attention to the materiality of algorithmic systems, and of on-device AI sensors in particular, and highlight the need for development of a sensor design paradigm that empowers users and communities and leads to a future of increased fairness, accountability and transparency.
- Abstract(参考訳): センサー付きデバイスに接続された人工知能(AI)システムは広く普及しており、プライバシー、環境、自律性など、さまざまなAIリスクに顕著な影響を与えている。
したがって、これらの技術の責任ある開発と展開に関して、説明責任を増大させる必要性が高まっている。
ここでは、センサーとその基盤となる計算モデルから生じるAIシステムに関連するリスクの次元を強調します。
我々は、これらのリスクを診断するためのセンサセンシティブなフレームワークを提案し、米国国立標準技術AIリスク管理フレームワークや欧州連合AI法といった既存のアプローチを補完し、その実装について議論する。
我々は、アルゴリズムシステム、特にオンデバイスAIセンサーの実用性への注目の高まりを説き、ユーザーとコミュニティを活性化し、公正性、説明可能性、透明性を高めるためのセンサー設計パラダイムの開発の必要性を強調した。
関連論文リスト
- Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems [2.226040060318401]
システム理論プロセス分析(STPA)をAIの操作と開発プロセスの解析に応用する。
我々は、機械学習アルゴリズムに依存したシステムと、3つのケーススタディに焦点をあてる。
私たちは、AIシステムに適したいくつかの適応があるにもかかわらず、anAを実行するための重要な概念とステップが容易に適用できることに気付きました。
論文 参考訳(メタデータ) (2024-10-29T20:43:18Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Progress in artificial intelligence applications based on the
combination of self-driven sensors and deep learning [6.117706409613191]
Wang Zhong linと彼のチームは、マックスウェル変位電流を駆動力として、機械的刺激を直接電気信号に変換する三誘電体ナノジェネレータ(TENG)を発明した。
本稿では,優れた音声認識能力を有するTENGのインテリジェントな音響監視・認識システムについて述べる。
論文 参考訳(メタデータ) (2024-01-30T08:53:54Z) - Sense, Predict, Adapt, Repeat: A Blueprint for Design of New Adaptive
AI-Centric Sensing Systems [2.465689259704613]
現在のグローバルなトレンドは、生成されたデータの量は既に人間の消費能力を超えており、AIアルゴリズムが世界中のデータの主要な消費者となっていることを示している。
本稿では、AIアルゴリズムと動的知覚のためのセンシングシステムの必要性を強調し、AIと知覚領域の両方における効率的なセンシングおよび知覚手法の概要を示す。
論文 参考訳(メタデータ) (2023-12-11T15:14:49Z) - Joint Sensing, Communication, and AI: A Trifecta for Resilient THz User
Experiences [118.91584633024907]
テラヘルツ(THz)無線システムに対する拡張現実(XR)体験を最適化するために、新しい共同センシング、通信、人工知能(AI)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-29T00:39:50Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Smart Anomaly Detection in Sensor Systems: A Multi-Perspective Review [0.0]
異常検出は、期待される振る舞いから著しく逸脱するデータパターンを特定することに関わる。
データ分析からe-health、サイバーセキュリティ、予測メンテナンス、障害防止、産業自動化に至るまで、幅広いアプリケーション領域があるため、これは重要な研究課題である。
本稿では,センサシステムの特定の領域における異常検出に使用される最先端手法について概説する。
論文 参考訳(メタデータ) (2020-10-27T09:56:16Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。