論文の概要: The Challenges and Opportunities of Human-Centered AI for Trustworthy
Robots and Autonomous Systems
- arxiv url: http://arxiv.org/abs/2105.04408v1
- Date: Fri, 7 May 2021 13:57:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:41:20.552317
- Title: The Challenges and Opportunities of Human-Centered AI for Trustworthy
Robots and Autonomous Systems
- Title(参考訳): 信頼できるロボットと自律システムのための人間中心型aiの挑戦と機会
- Authors: Hongmei He, John Gray, Angelo Cangelosi, Qinggang Meng, T.Martin
McGinnity, J\"orn Mehnen
- Abstract要約: この研究は、RASのための人間中心AI(HAI)の重要な側面を初めて体系的に探求する。
信頼できるRASの5つの重要な特性が最初に特定されました。
RASは、不確実でダイナミックな環境において安全でなければならない; (ii) 安全で、サイバー脅威から身を守る; (iii) 耐障害性のある健康な; (iv) 効果的に人間と機械の相互作用を可能にするための信頼性と使いやすさ。
- 参考スコア(独自算出の注目度): 7.072843257294504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The trustworthiness of Robots and Autonomous Systems (RAS) has gained a
prominent position on many research agendas towards fully autonomous systems.
This research systematically explores, for the first time, the key facets of
human-centered AI (HAI) for trustworthy RAS. In this article, five key
properties of a trustworthy RAS initially have been identified. RAS must be (i)
safe in any uncertain and dynamic surrounding environments; (ii) secure, thus
protecting itself from any cyber-threats; (iii) healthy with fault tolerance;
(iv) trusted and easy to use to allow effective human-machine interaction
(HMI), and (v) compliant with the law and ethical expectations. Then, the
challenges in implementing trustworthy autonomous system are analytically
reviewed, in respects of the five key properties, and the roles of AI
technologies have been explored to ensure the trustiness of RAS with respects
to safety, security, health and HMI, while reflecting the requirements of
ethics in the design of RAS. While applications of RAS have mainly focused on
performance and productivity, the risks posed by advanced AI in RAS have not
received sufficient scientific attention. Hence, a new acceptance model of RAS
is provided, as a framework for requirements to human-centered AI and for
implementing trustworthy RAS by design. This approach promotes human-level
intelligence to augment human's capacity. while focusing on contributions to
humanity.
- Abstract(参考訳): ロボットと自律システム(ras)の信頼性は、完全な自律システムに対する多くの研究課題において顕著な位置を占めてきた。
この研究は、信頼できるRASのための人間中心AI(HAI)の重要な側面を、初めて体系的に探求する。
本稿では、信頼に値するRASの5つの重要な特性を最初に同定する。
i)RASは(i)安全で、(ii)安全で、(ii)サイバー脅威から身を守ること、(iii)フォールトトレランスで健康であること、(iv)効果的なヒューマン・マシン・インタラクション(HMI)を可能にするための信頼性と使いやすさ、(v)法と倫理的期待に準拠すること。
次に、信頼性の高い自律システムを実装する際の課題を、5つの重要な特性に関して分析的にレビューし、安全、セキュリティ、健康、HMIに関するRASの信頼性を確保するため、RASの設計における倫理の要件を反映しながらAI技術の役割を探求した。
RASの応用は主にパフォーマンスと生産性に重点を置いているが、RASにおける高度なAIによって引き起こされるリスクは十分な科学的関心を受けていない。
したがって、人間中心のAIに対する要求と、設計による信頼できるRASの実装のためのフレームワークとして、RASの新しい受け入れモデルが提供される。
このアプローチは人間の能力を高めるために人間レベルの知性を促進する。
人類への貢献に焦点を合わせました
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Trust or Bust: Ensuring Trustworthiness in Autonomous Weapon Systems [0.0]
本稿では,自律兵器システム(AWS)における信頼の多面的性質について考察する。
バイアス、運用上の障害、説明責任に関連するリスクを軽減するために、信頼性と透明性を備えたシステムを確立する必要性を強調します。
技術者、倫理学者、軍事戦略家を含む協力的なアプローチを提唱し、現在進行中の課題に対処する。
論文 参考訳(メタデータ) (2024-10-14T08:36:06Z) - Attack Atlas: A Practitioner's Perspective on Challenges and Pitfalls in Red Teaming GenAI [52.138044013005]
生成AI、特に大規模言語モデル(LLM)は、製品アプリケーションにますます統合される。
新たな攻撃面と脆弱性が出現し、自然言語やマルチモーダルシステムにおける敵の脅威に焦点を当てる。
レッドチーム(英語版)はこれらのシステムの弱点を積極的に識別する上で重要となり、ブルーチーム(英語版)はそのような敵の攻撃から保護する。
この研究は、生成AIシステムの保護のための学術的な洞察と実践的なセキュリティ対策のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-09-23T10:18:10Z) - Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Potentiality and Awareness: A Position Paper from the Perspective of
Human-AI Teaming in Cybersecurity [18.324118502535775]
我々は、人間とAIのコラボレーションはサイバーセキュリティに価値があると論じている。
私たちは、AIの計算能力と人間の専門知識を取り入れたバランスのとれたアプローチの重要性を強調します。
論文 参考訳(メタデータ) (2023-09-28T01:20:44Z) - AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data
Proceedings [8.445274192818825]
予測モデルは不確実性を認識し、信頼できる予測をもたらすことが不可欠である。
このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであった。
広く定義された領域からの提出はまた、説明可能なモデル、人間の信頼、AIの倫理的側面といった要求に対処するアプローチについても論じた。
論文 参考訳(メタデータ) (2020-01-15T15:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。