論文の概要: Meaningful human control over AI systems: beyond talking the talk
- arxiv url: http://arxiv.org/abs/2112.01298v1
- Date: Thu, 25 Nov 2021 11:05:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 01:24:42.092268
- Title: Meaningful human control over AI systems: beyond talking the talk
- Title(参考訳): aiシステムに対する有意義な人間制御 - 話すことを超えて
- Authors: Luciano Cavalcante Siebert, Maria Luce Lupetti, Evgeni Aizenberg, Niek
Beckers, Arkady Zgonnikov, Herman Veluwenkamp, David Abbink, Elisa Giaccardi,
Geert-Jan Houben, Catholijn M. Jonker, Jeroen van den Hoven, Deborah Forster,
Reginald L. Lagendijk
- Abstract要約: 私たちは、AIベースのシステムが有意義な人間の制御下にある必要がある4つの特性を特定します。
第一に、人間とAIアルゴリズムが相互作用するシステムは、道徳的にロードされた状況の明確に定義された領域を持つべきである。
第2に、システム内の人間とAIエージェントは、適切かつ相互に互換性のある表現を持つべきである。
第三に、人間に帰属する責任は、その人のシステムを支配する能力と権限に相応すべきである。
- 参考スコア(独自算出の注目度): 8.351027101823705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The concept of meaningful human control has been proposed to address
responsibility gaps and mitigate them by establishing conditions that enable a
proper attribution of responsibility for humans (e.g., users, designers and
developers, manufacturers, legislators). However, the relevant discussions
around meaningful human control have so far not resulted in clear requirements
for researchers, designers, and engineers. As a result, there is no consensus
on how to assess whether a designed AI system is under meaningful human
control, making the practical development of AI-based systems that remain under
meaningful human control challenging. In this paper, we address the gap between
philosophical theory and engineering practice by identifying four actionable
properties which AI-based systems must have to be under meaningful human
control. First, a system in which humans and AI algorithms interact should have
an explicitly defined domain of morally loaded situations within which the
system ought to operate. Second, humans and AI agents within the system should
have appropriate and mutually compatible representations. Third, responsibility
attributed to a human should be commensurate with that human's ability and
authority to control the system. Fourth, there should be explicit links between
the actions of the AI agents and actions of humans who are aware of their moral
responsibility. We argue these four properties are necessary for AI systems
under meaningful human control, and provide possible directions to incorporate
them into practice. We illustrate these properties with two use cases,
automated vehicle and AI-based hiring. We believe these four properties will
support practically-minded professionals to take concrete steps toward
designing and engineering for AI systems that facilitate meaningful human
control and responsibility.
- Abstract(参考訳): 人間の責任の適切な帰属を可能にする条件(例えば、ユーザ、デザイナー、開発者、製造業者、立法者)を確立することによって、責任ギャップに対処し、それらを軽減するために有意義な人間制御の概念が提案されている。
しかしながら、有意義な人的制御に関する議論は、研究者、デザイナー、エンジニアの明確な要求を導いていない。
その結果、設計されたAIシステムが有意義な人間の制御下にあるかどうかを評価する方法に合意が得られず、有意義な人間の制御下にあるAIベースのシステムの実践的な開発が困難になる。
本稿では,AIに基づくシステムが有意義な人的制御を受ける必要がある4つの行動可能な特性を同定することにより,哲学理論と工学的実践のギャップを解消する。
第一に、人間とAIアルゴリズムが相互作用するシステムは、システムが動作すべき道徳的に負荷のかかる状況の明確に定義されたドメインを持つべきである。
第2に、システム内の人間とAIエージェントは、適切かつ相互に互換性のある表現を持つべきである。
第三に、人間に帰属する責任は、その人のシステムを支配する能力と権限に相応すべきである。
第4に、AIエージェントの行動と、その道徳的責任を認識している人間の行動との間には明確なつながりがあるべきである。
これらの4つの特性は、有意義な人間制御下でのAIシステムに必要なものであり、それらを実践に組み込むための可能な方向を提供する。
これらの特性を、自動車両とAIベースの雇用という2つのユースケースで説明します。
これらの4つの特性は、有意義な人間のコントロールと責任を促進するAIシステムの設計とエンジニアリングに向けて具体的なステップを踏み出すために、実践的な専門家を支援するだろう。
関連論文リスト
- Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Reflective Hybrid Intelligence for Meaningful Human Control in
Decision-Support Systems [4.1454448964078585]
本稿では,AIシステムに対する有意義な人間制御のための自己表現型AIシステムの概念を紹介する。
心理学と哲学の知識を形式的推論手法や機械学習アプローチと統合する枠組みを提案する。
我々は、自己反射型AIシステムは、自己反射型ハイブリッドシステム(人間+AI)に繋がると主張している。
論文 参考訳(メタデータ) (2023-07-12T13:32:24Z) - Applying HCAI in developing effective human-AI teaming: A perspective
from human-AI joint cognitive systems [10.746728034149989]
研究と応用は、AIシステムを開発するための新しいパラダイムとして、HAT(Human-AI Teaming)を使用している。
我々は,人間とAIの協調認知システム(HAIJCS)の概念的枠組みについて詳しく検討する。
本稿では,HATを表現・実装するためのヒューマンAI共同認知システム(HAIJCS)の概念的枠組みを提案する。
論文 参考訳(メタデータ) (2023-07-08T06:26:38Z) - Intent-aligned AI systems deplete human agency: the need for agency
foundations research in AI safety [2.3572498744567127]
人間の意図の一致は、安全なAIシステムには不十分である、と我々は主張する。
我々は、人類の長期的機関の保存がより堅牢な標準であると論じている。
論文 参考訳(メタデータ) (2023-05-30T17:14:01Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - A Cognitive Framework for Delegation Between Error-Prone AI and Human
Agents [0.0]
本研究では,認知にインスパイアされた行動モデルを用いて,人間エージェントとAIエージェントの両方の行動を予測する。
予測された振る舞いは、仲介者の使用を通じて人間とAIエージェントの制御を委譲するために使用される。
論文 参考訳(メタデータ) (2022-04-06T15:15:21Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Human Perceptions on Moral Responsibility of AI: A Case Study in
AI-Assisted Bail Decision-Making [8.688778020322758]
我々は、AIと人間エージェントに関する道徳的責任という8つの異なる概念に対する人々の認識を測定する。
我々は、AIエージェントが故意に責任を負い、同じタスクに対して人間エージェントと同様の責任を負っていることを示す。
私たちは、AIと人間の意思決定者とアドバイザーの両方が、彼らの性質に関わらず、自分の決定を正当化することを期待している。
論文 参考訳(メタデータ) (2021-02-01T04:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。