論文の概要: Avoiding Improper Treatment of Persons with Dementia by Care Robots
- arxiv url: http://arxiv.org/abs/2005.06622v1
- Date: Fri, 8 May 2020 14:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-20 19:59:26.154169
- Title: Avoiding Improper Treatment of Persons with Dementia by Care Robots
- Title(参考訳): 介護ロボットによる認知症患者の不適切な治療の回避
- Authors: Martin Cooney, Sepideh Pashami, Eric J\"arpe, Awais Ashfaq
- Abstract要約: 特に、認知症に影響を及ぼす潜在的な危険を探索することに焦点をあてる。
本稿では,豊富な因果モデルと説明責任尺度を含む提案手法について述べる。
我々の狙いは、PWDにおける幸福を支えることを目的としたケアロボットの設計に、この考えが役立つことである。
- 参考スコア(独自算出の注目度): 1.5156879440024376
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The phrase "most cruel and revolting crimes" has been used to describe some
poor historical treatment of vulnerable impaired persons by precisely those who
should have had the responsibility of protecting and helping them. We believe
we might be poised to see history repeat itself, as increasingly human-like
aware robots become capable of engaging in behavior which we would consider
immoral in a human--either unknowingly or deliberately. In the current paper we
focus in particular on exploring some potential dangers affecting persons with
dementia (PWD), which could arise from insufficient software or external
factors, and describe a proposed solution involving rich causal models and
accountability measures: Specifically, the Consequences of Needs-driven
Dementia-compromised Behaviour model (C-NDB) could be adapted to be used with
conversation topic detection, causal networks and multi-criteria decision
making, alongside reports, audits, and deterrents. Our aim is that the
considerations raised could help inform the design of care robots intended to
support well-being in PWD.
- Abstract(参考訳): もっとも残酷で反抗的な犯罪」という言葉は、脆弱な人に対する、保護と支援の責任を正確に負うべき人々による、悪い歴史的な扱いを表現するために用いられてきた。
人間のような認識能力を持つロボットが、人間に不道徳であると考えるようになるにつれ、歴史自体が繰り返される可能性がある、と私たちは信じています。
In the current paper we focus in particular on exploring some potential dangers affecting persons with dementia (PWD), which could arise from insufficient software or external factors, and describe a proposed solution involving rich causal models and accountability measures: Specifically, the Consequences of Needs-driven Dementia-compromised Behaviour model (C-NDB) could be adapted to be used with conversation topic detection, causal networks and multi-criteria decision making, alongside reports, audits, and deterrents.
当社の目標は、pwdの健康支援を目的としたケアロボットの設計に、これらの考慮事項が役立ちます。
関連論文リスト
- Envisioning Possibilities and Challenges of AI for Personalized Cancer Care [36.53434633571359]
パーソナライズされたケアの欠如や、不十分な文化的・言語的な宿泊施設など、現在の医療システムにおける重要なギャップを特定する。
AIは、ケアに適用されると、リアルタイム、文化的に整合し、言語的に適切な相互作用を可能にすることで、これらの問題に対処する方法と見なされた。
また、データプライバシ、介護におけるヒューマンタッチの喪失、多様な情報への露出を制限するエコーチャンバーのリスクなど、AI駆動のパーソナライゼーションがもたらす影響に関する懸念も明らかになった。
論文 参考訳(メタデータ) (2024-08-19T15:55:46Z) - Reinforcement Learning Interventions on Boundedly Rational Human Agents
in Frictionful Tasks [25.507656595628376]
本稿では,AIエージェントがマルコフ決定プロセス(MDP)のパラメータに介入する枠組みを紹介する。
私たちは、人間のモデルによるAI計画が、より複雑で地道な人間の幅広い政策に結びつくことを示しています。
論文 参考訳(メタデータ) (2024-01-26T14:59:48Z) - ICRA Roboethics Challenge 2023: Intelligent Disobedience in an Elderly
Care Home [33.42984969429203]
サービスロボットは、高齢者ホームでの幸福感を高めるための有望な道を提供する。
このようなロボットは複雑なシナリオに遭遇し、倫理的な結果で決定を下す必要がある。
本稿では,知的不服従フレームワークを活用して,倫理的意味のある意思決定に対して,ロボットに検討プロセスを実行する能力を与えることを提案する。
論文 参考訳(メタデータ) (2023-11-15T08:55:19Z) - Protecting Society from AI Misuse: When are Restrictions on Capabilities
Warranted? [0.0]
特定の能力に対する標的的介入は、AIの誤用を防ぐために保証される、と我々は主張する。
これらの制限には、特定のタイプのAIモデルにアクセス可能なコントロール、使用可能なもの、アウトプットがフィルタリングされているか、あるいはユーザへのトレースが可能なものが含まれる。
この推論は、新規毒素の予測、有害な画像の作成、槍のフィッシングキャンペーンの自動化の3つの例に適用する。
論文 参考訳(メタデータ) (2023-03-16T15:05:59Z) - When to Ask for Help: Proactive Interventions in Autonomous
Reinforcement Learning [57.53138994155612]
強化学習の長期的な目標は、世界で自律的に対話し学習できるエージェントを設計することである。
重要な課題は、ロボットアームが物体をテーブルから押し出したときなど、外部からの援助を必要とする不可逆状態の存在である。
本研究では,非可逆状態の検出と回避を効率よく学習し,エージェントが侵入した場合に積極的に支援を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:24Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - A Simulated Experiment to Explore Robotic Dialogue Strategies for People
with Dementia [2.5412519393131974]
繰り返し質問の文脈におけるPwD-ロボット相互作用のための部分可観測マルコフ決定プロセス(POMDP)モデルを提案する。
異なる認知能力と異なるエンゲージメントレベルを持つpwdに対する適応的会話戦略を学ぶためにq-learningを用いた。
これは、PwDの繰り返し質問に対処するための会話型ソーシャルロボットの適用に向けた有用なステップかもしれません。
論文 参考訳(メタデータ) (2021-04-18T19:35:19Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。