論文の概要: ICRA Roboethics Challenge 2023: Intelligent Disobedience in an Elderly
Care Home
- arxiv url: http://arxiv.org/abs/2311.08783v1
- Date: Wed, 15 Nov 2023 08:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 16:48:40.947707
- Title: ICRA Roboethics Challenge 2023: Intelligent Disobedience in an Elderly
Care Home
- Title(参考訳): ICRA Roboethics Challenge 2023 : 高齢者ホームにおける知的不服従
- Authors: Sveta Paster, Kantwon Rogers, Gordon Briggs, Peter Stone, Reuth Mirsky
- Abstract要約: サービスロボットは、高齢者ホームでの幸福感を高めるための有望な道を提供する。
このようなロボットは複雑なシナリオに遭遇し、倫理的な結果で決定を下す必要がある。
本稿では,知的不服従フレームワークを活用して,倫理的意味のある意思決定に対して,ロボットに検討プロセスを実行する能力を与えることを提案する。
- 参考スコア(独自算出の注目度): 33.42984969429203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the projected surge in the elderly population, service robots offer a
promising avenue to enhance their well-being in elderly care homes. Such robots
will encounter complex scenarios which will require them to perform decisions
with ethical consequences. In this report, we propose to leverage the
Intelligent Disobedience framework in order to give the robot the ability to
perform a deliberation process over decisions with potential ethical
implications. We list the issues that this framework can assist with, define it
formally in the context of the specific elderly care home scenario, and
delineate the requirements for implementing an intelligently disobeying robot.
We conclude this report with some critical analysis and suggestions for future
work.
- Abstract(参考訳): 高齢者の急増が予想される中、サービスロボットは高齢者ホームでの幸福感を高めるための有望な道を提供する。
このようなロボットは複雑なシナリオに遭遇し、倫理的な結果で決定を下す必要がある。
本稿では,知的不服従の枠組みを活用して,倫理的意味のある決定に対して,ロボットに検討プロセスを実行する能力を与えることを提案する。
我々は、このフレームワークが支援できる課題をリストアップし、特定の高齢者ホームシナリオの文脈で正式に定義し、知的に不服従なロボットを実装するための要件を記述した。
本報告は,今後の課題に対する批判的分析と提案とともに結論づける。
関連論文リスト
- Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Understanding a Robot's Guiding Ethical Principles via Automatically
Generated Explanations [4.393037165265444]
我々は、ユーザーが計画について提案し、自動的に生成された対照的な説明を受けられるように、既存の倫理的枠組みを構築している。
ユーザスタディの結果は、生成された説明は、ロボットの計画の根底にある倫理的原則を理解するのに役立つことを示唆している。
論文 参考訳(メタデータ) (2022-06-20T22:55:00Z) - Two ways to make your robot proactive: reasoning about human intentions,
or reasoning about possible futures [69.03494351066846]
ロボットをアクティブにする方法を2つ検討する。
1つの方法は人間の意図を認識し、あなたが交差しようとしているドアを開くなど、それらを満たすために行動することである。
もう1つの方法は、将来起こりうる脅威や機会を推論し、それを防ぐか、または育てるために行動することである。
論文 参考訳(メタデータ) (2022-05-11T13:33:14Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Enabling Morally Sensitive Robotic Clarification Requests [2.4505259300326334]
説明要求の反射的な生成は ロボットに彼らの道徳的配置を 誤解させる可能性がある
我々は、曖昧な人間の発話のそれぞれの潜在的な曖昧さについて道徳的推論を行うことで解決法を提案する。
そして,本手法を人体実験により評価し,本手法が2つの懸念事項を改善できることを示唆した。
論文 参考訳(メタデータ) (2020-07-16T22:12:35Z) - Towards Contrastive Explanations for Comparing the Ethics of Plans [4.393037165265444]
本稿では、計画の倫理性を比較するために、対照的な説明がいかに用いられるかを示す。
我々は、ユーザーが計画の提案を行い、対照的な説明を受けられるように、既存の倫理的枠組みを構築している。
論文 参考訳(メタデータ) (2020-06-22T21:38:16Z) - Avoiding Improper Treatment of Persons with Dementia by Care Robots [1.5156879440024376]
特に、認知症に影響を及ぼす潜在的な危険を探索することに焦点をあてる。
本稿では,豊富な因果モデルと説明責任尺度を含む提案手法について述べる。
我々の狙いは、PWDにおける幸福を支えることを目的としたケアロボットの設計に、この考えが役立つことである。
論文 参考訳(メタデータ) (2020-05-08T14:34:13Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。