論文の概要: Trustworthy AI in the Age of Pervasive Computing and Big Data
- arxiv url: http://arxiv.org/abs/2002.05657v1
- Date: Thu, 30 Jan 2020 08:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 04:35:52.337042
- Title: Trustworthy AI in the Age of Pervasive Computing and Big Data
- Title(参考訳): 広範コンピューティングとビッグデータの時代における信頼できるAI
- Authors: Abhishek Kumar, Tristan Braud, Sasu Tarkoma, Pan Hui
- Abstract要約: 我々は倫理的観点から信頼に値するAIシステムの要件を定式化する。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法のメリットを如何に示すかを示す。
- 参考スコア(独自算出の注目度): 22.92621391190282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The era of pervasive computing has resulted in countless devices that
continuously monitor users and their environment, generating an abundance of
user behavioural data. Such data may support improving the quality of service,
but may also lead to adverse usages such as surveillance and advertisement. In
parallel, Artificial Intelligence (AI) systems are being applied to sensitive
fields such as healthcare, justice, or human resources, raising multiple
concerns on the trustworthiness of such systems. Trust in AI systems is thus
intrinsically linked to ethics, including the ethics of algorithms, the ethics
of data, or the ethics of practice. In this paper, we formalise the
requirements of trustworthy AI systems through an ethics perspective. We
specifically focus on the aspects that can be integrated into the design and
development of AI systems. After discussing the state of research and the
remaining challenges, we show how a concrete use-case in smart cities can
benefit from these methods.
- Abstract(参考訳): 普及型コンピューティングの時代は、ユーザとその環境を継続的に監視し、大量のユーザー行動データを生成する無数のデバイスを生み出した。
このようなデータはサービスの品質向上を支援するが、監視や広告といった悪用につながることもある。
並行して、人工知能(AI)システムは、医療、司法、人的資源といった繊細な分野に応用され、そのようなシステムの信頼性に対する複数の懸念が高まっている。
したがって、AIシステムの信頼は、アルゴリズムの倫理、データの倫理、実践の倫理など、本質的に倫理と結びついている。
本稿では,倫理的観点から信頼に値するAIシステムの要件を定式化する。
私たちは特に、AIシステムの設計と開発に統合できる側面に焦点を当てています。
研究状況と残りの課題について議論した後、スマートシティにおける具体的なユースケースがこれらの方法の恩恵を受けるかを示す。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Towards Measuring Ethicality of an Intelligent Assistive System [1.2961180148172198]
自律的なエンティティの存在は、これらのシステムの使用に関わる利害関係者に関する倫理的な課題を引き起こします。
IATが倫理規定にどのように準拠しているかを分析するには、研究の欠如がある。
本稿では,支援システムの倫理性を評価する方法を提案する。
論文 参考訳(メタデータ) (2023-02-28T14:59:17Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Never trust, always verify : a roadmap for Trustworthy AI? [12.031113181911627]
我々はAIベースのシステムのコンテキストにおける信頼を検証し、AIシステムが信頼に値するものとなることの意味を理解する。
我々は、AIに対する信頼(resp. zero-trust)モデルを提案し、AIシステムの信頼性を保証するために満足すべき特性のセットを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:13:10Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Know Your Model (KYM): Increasing Trust in AI and Machine Learning [4.93786553432578]
信頼度の各要素を分析し、最適なAI機能を確保するために活用できる20のガイドラインのセットを提供します。
このガイドラインは、信頼性が証明可能で、実証可能であること、実装に依存しないこと、あらゆる分野のあらゆるAIシステムに適用可能であることを保証する。
論文 参考訳(メタデータ) (2021-05-31T14:08:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。