論文の概要: RoboTed: a case study in Ethical Risk Assessment
- arxiv url: http://arxiv.org/abs/2007.15864v2
- Date: Tue, 29 Sep 2020 13:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 12:52:14.790143
- Title: RoboTed: a case study in Ethical Risk Assessment
- Title(参考訳): RoboTed:倫理的リスクアセスメントのケーススタディ
- Authors: Alan F.T. Winfield, Katie Winkle
- Abstract要約: 倫理的リスクアセスメント(ERA)を概説し、責任ロボット(Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, Responsible Robotics, ERA
ケーススタディは、倫理的リスクを考慮すれば、設計変更が促進され、より倫理的で持続可能なロボットが生まれることを示す。
- 参考スコア(独自算出の注目度): 0.9137554315375919
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Risk Assessment is a well known and powerful method for discovering and
mitigating risks, and hence improving safety. Ethical Risk Assessment uses the
same approach but extends the envelope of risk to cover ethical risks in
addition to safety risks. In this paper we outline Ethical Risk Assessment
(ERA) and set ERA within the broader framework of Responsible Robotics. We then
illustrate ERA with a case study of a hypothetical smart robot toy teddy bear:
RoboTed. The case study shows the value of ERA and how consideration of ethical
risks can prompt design changes, resulting in a more ethical and sustainable
robot.
- Abstract(参考訳): リスクアセスメント(英: Risk Assessment)は、リスクを発見して緩和する方法であり、それによって安全性が向上する。
倫理的リスク評価は同じアプローチを用いるが、安全リスクに加えて倫理的リスクをカバーするためにリスクの範囲を広げる。
本稿では,倫理的リスクアセスメント(era)を概説し,責任あるロボティクスの幅広い枠組みの中で時代を定めます。
次に、スマートロボットのおもちゃであるteddy bearのケーススタディで時代を説明している。
ケーススタディでは、ERAの価値と倫理的リスクの考慮が、いかにしてデザイン変更を促すかを示し、その結果、より倫理的で持続可能なロボットが生まれる。
関連論文リスト
- Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - RiskBench: A Scenario-based Benchmark for Risk Identification [4.263035319815899]
この研究は、リスク識別、ダイナミックなトラフィック参加者と予期せぬイベントから生じるリスクを特定し分析するプロセスに焦点を当てている。
リスク識別のための大規模シナリオベースベンチマークである textbfRiskBench を紹介する。
我々は,(1)リスクの検出と発見,(2)リスクの予測,(3)意思決定の促進を行う10のアルゴリズムの能力を評価する。
論文 参考訳(メタデータ) (2023-12-04T06:21:22Z) - RiskQ: Risk-sensitive Multi-Agent Reinforcement Learning Value
Factorization [51.386963525376395]
本稿では,リスクに敏感な個人・グローバル・マックス(RIGM)の原則を,個人・グローバル・マックス(IGM)と分散IGM(DIGM)の原則の一般化として紹介する。
RiskQは広範な実験によって有望な性能が得られることを示す。
論文 参考訳(メタデータ) (2023-11-03T07:18:36Z) - Learning Risk-Aware Quadrupedal Locomotion using Distributional
Reinforcement Learning [13.279646927568937]
本稿では,分散強化学習を用いたリスクセンシティブな移動訓練手法を提案する。
本研究では,ロボットが環境と相互作用する際の不確実性を考慮した完全な値分布を推定する。
シミュレーションおよび四足歩行ロボットANYmalにおいて,突発的リスクに敏感な移動行動を示す。
論文 参考訳(メタデータ) (2023-09-25T16:05:32Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - TASRA: a Taxonomy and Analysis of Societal-Scale Risks from AI [11.240642213359267]
多くの抜本的な分類が可能であり、特に新しいリスクや安全性への実践的なアプローチを明らかにする場合、有用であるものもある。
本稿では,リスクに繋がる行動,アクターは一体化されているか,意図的かという,説明責任に基づく分類について考察する。
また、AIシステムの予期せぬ相互作用から生じるリスクや、意図的に悪用されるリスクなど、さまざまなリスクタイプがどのように機能するかを説明する物語も提供しています。
論文 参考訳(メタデータ) (2023-06-12T07:55:18Z) - Robot Navigation in Risky, Crowded Environments: Understanding Human
Preferences [6.1364879462585185]
リスクと混み合った環境(RCE)は、人間によって異なる知覚されるリスクと不確実性の抽象的な源を含んでいる。
本研究では,より優れたナビゲーション説明可能なAI(XAI)の設計を支援するために,人間の行動と知覚に関する斬新で批判的な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-15T00:11:39Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Quantitative AI Risk Assessments: Opportunities and Challenges [9.262092738841979]
AIベースのシステムは、組織、個人、社会に価値を提供するために、ますます活用されている。
リスクは、提案された規制、訴訟、および一般的な社会的懸念につながった。
本稿では,定量的AIリスクアセスメントの概念について考察する。
論文 参考訳(メタデータ) (2022-09-13T21:47:25Z) - Efficient Risk-Averse Reinforcement Learning [79.61412643761034]
リスク逆強化学習(RL)では、リターンのリスク測定を最適化することが目標である。
特定の条件下では、これは必然的に局所最適障壁につながることを証明し、それを回避するためのソフトリスク機構を提案する。
迷路ナビゲーション,自律運転,資源配分ベンチマークにおいて,リスク回避の改善を示す。
論文 参考訳(メタデータ) (2022-05-10T19:40:52Z) - Learning Bounds for Risk-sensitive Learning [86.50262971918276]
リスクに敏感な学習では、損失のリスク・アバース(またはリスク・シーキング)を最小化する仮説を見つけることを目的としている。
最適化された確実性等価性によって最適性を記述するリスク感応学習スキームの一般化特性について検討する。
論文 参考訳(メタデータ) (2020-06-15T05:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。