論文の概要: RoboTed: a case study in Ethical Risk Assessment
- arxiv url: http://arxiv.org/abs/2007.15864v2
- Date: Tue, 29 Sep 2020 13:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 12:52:14.790143
- Title: RoboTed: a case study in Ethical Risk Assessment
- Title(参考訳): RoboTed:倫理的リスクアセスメントのケーススタディ
- Authors: Alan F.T. Winfield, Katie Winkle
- Abstract要約: 倫理的リスクアセスメント(ERA)を概説し、責任ロボット(Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, ERA
ケーススタディは、倫理的リスクを考慮すれば、設計変更が促進され、より倫理的で持続可能なロボットが生まれることを示す。
- 参考スコア(独自算出の注目度): 0.9137554315375919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk Assessment is a well known and powerful method for discovering and
mitigating risks, and hence improving safety. Ethical Risk Assessment uses the
same approach but extends the envelope of risk to cover ethical risks in
addition to safety risks. In this paper we outline Ethical Risk Assessment
(ERA) and set ERA within the broader framework of Responsible Robotics. We then
illustrate ERA with a case study of a hypothetical smart robot toy teddy bear:
RoboTed. The case study shows the value of ERA and how consideration of ethical
risks can prompt design changes, resulting in a more ethical and sustainable
robot.
- Abstract(参考訳): リスクアセスメント(英: Risk Assessment)は、リスクを発見して緩和する方法であり、それによって安全性が向上する。
倫理的リスク評価は同じアプローチを用いるが、安全リスクに加えて倫理的リスクをカバーするためにリスクの範囲を広げる。
本稿では,倫理的リスクアセスメント(era)を概説し,責任あるロボティクスの幅広い枠組みの中で時代を定めます。
次に、スマートロボットのおもちゃであるteddy bearのケーススタディで時代を説明している。
ケーススタディでは、ERAの価値と倫理的リスクの考慮が、いかにしてデザイン変更を促すかを示し、その結果、より倫理的で持続可能なロボットが生まれる。
関連論文リスト
- Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - EAIRiskBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [47.69642609574771]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
EAIRiskBenchは、EAIシナリオにおける自動物理的リスクアセスメントのための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - AI and the Iterable Epistopics of Risk [1.26404863283601]
AIが社会に提示するリスクは、一般的な計算によって管理可能であると広く理解されている。
本稿では、規制当局、開発者、サイバーセキュリティの専門家によるリスクの把握と管理について詳述する。
論文 参考訳(メタデータ) (2024-04-29T13:33:22Z) - Affirmative safety: An approach to risk management for high-risk AI [6.133009503054252]
高いリスクを持つAIシステムを開発または展開するエンティティは、肯定的な安全性の証拠を示すために必要であるべきだ、と私たちは主張する。
本稿では,モデル開発者が一定のリスクを規制基準値以下に維持する証拠を提示しなければならない,高度なAIのためのリスク管理手法を提案する。
論文 参考訳(メタデータ) (2024-04-14T20:48:55Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI [11.240642213359267]
多くの抜本的な分類が可能であり、特に新しいリスクや安全性への実践的なアプローチを明らかにする場合、有用であるものもある。
本稿では,リスクに繋がる行動,アクターは一体化されているか,意図的かという,説明責任に基づく分類について考察する。
また、AIシステムの予期せぬ相互作用から生じるリスクや、意図的に悪用されるリスクなど、さまざまなリスクタイプがどのように機能するかを説明する物語も提供しています。
論文 参考訳(メタデータ) (2023-06-12T07:55:18Z) - Robot Navigation in Risky, Crowded Environments: Understanding Human
Preferences [6.1364879462585185]
リスクと混み合った環境(RCE)は、人間によって異なる知覚されるリスクと不確実性の抽象的な源を含んでいる。
本研究では,より優れたナビゲーション説明可能なAI(XAI)の設計を支援するために,人間の行動と知覚に関する斬新で批判的な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-15T00:11:39Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。