論文の概要: Towards AI Logic for Social Reasoning
- arxiv url: http://arxiv.org/abs/2110.04452v1
- Date: Sat, 9 Oct 2021 04:35:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 18:54:47.119749
- Title: Towards AI Logic for Social Reasoning
- Title(参考訳): ソーシャル推論のためのAIロジックを目指して
- Authors: Huimin Dong, R\'eka Markovich and Leendert van der Torre
- Abstract要約: 本稿では、議論に基づくAIロジックを用いて、社会的推論の重要な側面を定式化する方法について論じる。
社会AI論理の4つの側面について論じる。まず,知的エージェントの義務と許可の関係について,権利がどのように表現されるかについて議論する。
第二に、プライバシーと倫理に関する最近の議論の中心的な問題である、正しい知識についてどのように議論するかについて議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence (AI) logic formalizes the reasoning of intelligent
agents. In this paper, we discuss how an argumentation-based AI logic could be
used also to formalize important aspects of social reasoning. Besides reasoning
about the knowledge and actions of individual agents, social AI logic can
reason also about social dependencies among agents using the rights,
obligations and permissions of the agents. We discuss four aspects of social AI
logic. First, we discuss how rights represent relations between the obligations
and permissions of intelligent agents. Second, we discuss how to argue about
the right-to-know, a central issue in the recent discussion of privacy and
ethics. Third, we discuss how a wide variety of conflicts among intelligent
agents can be identified and (sometimes) resolved by comparing formal
arguments. Importantly, to cover a wide range of arguments occurring in daily
life, also fallacious arguments can be represented and reasoned about. Fourth,
we discuss how to argue about the freedom to act for intelligent agents.
Examples from social, legal and ethical reasoning highlight the challenges in
developing social AI logic. The discussion of the four challenges leads to a
research program for argumentation-based social AI logic, contributing towards
the future development of AI logic.
- Abstract(参考訳): 人工知能(AI)論理は知的エージェントの推論を形式化する。
本稿では、議論に基づくAI論理を用いて、社会的推論の重要な側面を定式化する方法について論じる。
個々のエージェントの知識と行動の推論に加えて、ソーシャルAIロジックはエージェントの権利、義務、許可を使ってエージェント間の社会的依存についても推論することができる。
社会AI論理の4つの側面について論じる。
まず,知的エージェントの義務と許可の関係について論じる。
第二に、プライバシーと倫理に関する最近の議論の中心的な問題である、正しい知識についてどのように議論するかについて議論する。
第3に,知的エージェント間の多種多様な対立を識別し,形式的議論を比較することで解決する方法について論じる。
重要なことに、日常生活で起こる幅広い議論をカバーするために、虚偽の議論も表現され、推論することができる。
第4に,知的エージェントに対して行動する自由について議論する方法について論じる。
社会的、法的、倫理的な推論の例は、社会AIロジックを開発する際の課題を浮き彫りにする。
この4つの課題に関する議論は、議論に基づくソーシャルAIロジックの研究プログラムにつながり、AIロジックの将来の発展に寄与する。
関連論文リスト
- Le Nozze di Giustizia. Interactions between Artificial Intelligence,
Law, Logic, Language and Computation with some case studies in Traffic
Regulations and Health Care [0.0]
この論文の重要な目的は、数理論理の基礎を人工知能を扱う法的なコミュニティに伝えることである。
AIとは何かを分析した後、ニューラルネットワークと機械学習を別として、ルールベースのAIに身を委ねることにしました。
数学的論理が法則に基づくAIの実践とどのように相互作用するかを見る。
論文 参考訳(メタデータ) (2024-02-09T15:43:31Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge
Reasoning via Promoting Causal Consistency in LLMs [63.26541167737355]
知識に基づく推論における忠実さと因果性を高めるための枠組みを提案する。
我々のフレームワークは、最先端のアプローチを大きなマージンで比較している。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Relational Artificial Intelligence [5.5586788751870175]
AIは伝統的に合理的な意思決定と結びついているが、すべての面においてAIの社会的影響を理解し、形作るためには、リレーショナルな視点が必要である。
AIに対する合理的なアプローチでは、計算アルゴリズムが人間の介入から独立して意思決定を推進し、バイアスと排除をもたらすことが示されている。
物事のリレーショナルな性質に焦点を当てたリレーショナルアプローチは、AIの倫理的、法的、社会的、文化的、環境的な影響を扱うために必要である。
論文 参考訳(メタデータ) (2022-02-04T15:29:57Z) - Arguments about Highly Reliable Agent Designs as a Useful Path to
Artificial Intelligence Safety [0.0]
HRAD(Highly Reliable Agent Designs)は、最も議論の的かつ野心的なアプローチの一つである。
我々は,(1)付随効用,(2)脱融合,(3)正確な仕様,(4)予測の議論をタイトルにした。
本稿では,出版・非公式文献のレビューに基づいて,その前提と主張を論じるとともに,その話題に関する立場を述べた専門家も紹介する。
論文 参考訳(メタデータ) (2022-01-09T07:42:37Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Immune Moral Models? Pro-Social Rule Breaking as a Moral Enhancement
Approach for Ethical AI [0.17188280334580192]
倫理的行動は、人間中心のAIで私たちが望む重要な特徴です。
AIエージェントをより人間中心にするためには、AIエージェントがルールを破るタイミングを特定するのに役立つメカニズムが必要である、と私たちは主張する。
論文 参考訳(メタデータ) (2021-06-17T18:44:55Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。