論文の概要: Reasonable Machines: A Research Manifesto
- arxiv url: http://arxiv.org/abs/2008.06250v1
- Date: Fri, 14 Aug 2020 08:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-06 07:19:47.068305
- Title: Reasonable Machines: A Research Manifesto
- Title(参考訳): 合理的機械:研究マニフェスト
- Authors: Christoph Benzm\"uller and Bertram Lomfeld
- Abstract要約: 信頼の健全なエコシステムは、彼らの行動が自律的に正当化される方法を必要とします。
道徳的・法的哲学のような社会的推論モデルに基づく。
規範的コミュニケーションを実現することは、信頼を生み出し、AIアプリケーションの新しい次元を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Future intelligent autonomous systems (IAS) are inevitably deciding on moral
and legal questions, e.g. in self-driving cars, health care or human-machine
collaboration. As decision processes in most modern sub-symbolic IAS are
hidden, the simple political plea for transparency, accountability and
governance falls short. A sound ecosystem of trust requires ways for IAS to
autonomously justify their actions, that is, to learn giving and taking reasons
for their decisions. Building on social reasoning models in moral psychology
and legal philosophy such an idea of >>Reasonable Machines<< requires novel,
hybrid reasoning tools, ethico-legal ontologies and associated argumentation
technology. Enabling machines to normative communication creates trust and
opens new dimensions of AI application and human-machine interaction.
Keywords: Trusthworthy and Explainable AI, Ethico-Legal Governors, Social
Reasoning Model, Pluralistic and Expressive Normative Reasoning
- Abstract(参考訳): 将来のインテリジェント自律システム(IAS)は必然的に、自動車、ヘルスケア、人間と機械のコラボレーションなど、道徳的および法的問題を決定する。
現代のほとんどのサブシンボリックIASにおける意思決定プロセスは隠されているため、透明性、説明責任、ガバナンスに対する単純な政治的嘆願は不足している。
信頼の健全なエコシステムは、IASが自らの行動を自律的に正当化する手段を必要とします。
道徳心理学や法哲学における社会的推論モデルの構築は,<asonable Machines<<<<>は,新しいハイブリッド推論ツール,倫理法的オントロジー,関連する議論技術を必要とする。
機械を規範的コミュニケーションに置き換えることで、信頼が生まれ、AIアプリケーションと人間と機械の相互作用の新しい次元が開かれる。
キーワード:信頼できる、説明可能なAI、エスコ・レガルド、社会推論モデル、複数言語的、表現的規範推論
関連論文リスト
- Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Beneficent Intelligence: A Capability Approach to Modeling Benefit,
Assistance, and Associated Moral Failures through AI Systems [12.239090962956043]
AI倫理に関する一般的な言説は、AIシステムが個人と対話する際に生じる多様な倫理的懸念を捉えるのに必要な言語や形式主義を欠いている。
本稿では、利害関係者に有意義な利益や援助を与えるために、AIシステムに必要な倫理的概念と権利のネットワークを定式化する枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-01T22:38:14Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Future Intelligent Autonomous Robots, Ethical by Design. Learning from
Autonomous Cars Ethics [19.911701966878947]
インテリジェントな自律ロボットの倫理学の分野は、実用的な実用価値を持つ研究の好例である。
インテリジェントな自律ロボットの開発へのアプローチの出発点として使用できる。
自律的なインテリジェントなロボカーの倫理に関する私たちの研究や、ロボット工学の倫理に関する既存の文献から、私たちの貢献は、一連の価値と倫理原則で構成されています。
論文 参考訳(メタデータ) (2021-07-16T21:10:04Z) - Immune Moral Models? Pro-Social Rule Breaking as a Moral Enhancement
Approach for Ethical AI [0.17188280334580192]
倫理的行動は、人間中心のAIで私たちが望む重要な特徴です。
AIエージェントをより人間中心にするためには、AIエージェントがルールを破るタイミングを特定するのに役立つメカニズムが必要である、と私たちは主張する。
論文 参考訳(メタデータ) (2021-06-17T18:44:55Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。