論文の概要: How Should AI Interpret Rules? A Defense of Minimally Defeasible
Interpretive Argumentation
- arxiv url: http://arxiv.org/abs/2110.13341v1
- Date: Tue, 26 Oct 2021 00:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 15:46:04.069440
- Title: How Should AI Interpret Rules? A Defense of Minimally Defeasible
Interpretive Argumentation
- Title(参考訳): AIはルールをどう解釈すべきか?
最小限の解釈的議論の防御
- Authors: John Licato
- Abstract要約: 現実世界のルールは、必然的にオープンテクスチャの用語で区切られている。
このようなルールに従う能力、そしてそれらについて考える能力は、最初の分析で見られるほど明確ではない。
ルールに従うAIは、最小限の解釈可能な議論によって最も支持される解釈に従って行動すべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Can artificially intelligent systems follow rules? The answer might seem an
obvious `yes', in the sense that all (current) AI strictly acts in accordance
with programming code constructed from highly formalized and well-defined
rulesets. But here I refer to the kinds of rules expressed in human language
that are the basis of laws, regulations, codes of conduct, ethical guidelines,
and so on. The ability to follow such rules, and to reason about them, is not
nearly as clear-cut as it seems on first analysis. Real-world rules are
unavoidably rife with open-textured terms, which imbue rules with a possibly
infinite set of possible interpretations. Narrowing down this set requires a
complex reasoning process that is not yet within the scope of contemporary AI.
This poses a serious problem for autonomous AI: If one cannot reason about
open-textured terms, then one cannot reason about (or in accordance with)
real-world rules. And if one cannot reason about real-world rules, then one
cannot: follow human laws, comply with regulations, act in accordance with
written agreements, or even obey mission-specific commands that are anything
more than trivial. But before tackling these problems, we must first answer a
more fundamental question: Given an open-textured rule, what is its correct
interpretation? Or more precisely: How should our artificially intelligent
systems determine which interpretation to consider correct? In this essay, I
defend the following answer: Rule-following AI should act in accordance with
the interpretation best supported by minimally defeasible interpretive
arguments (MDIA).
- Abstract(参考訳): 人工知能システムはルールに従うことができるか?
すべての(現在)aiが、高度に形式化され、明確に定義されたルールセットで構築されたプログラミングコードに従って厳密に行動するという意味で、この答えは明白な‘yes’に思える。
しかし、ここでは、法律、規則、行動規範、倫理ガイドラインなどの基礎となる、人間の言語で表現される規則の種類について言及します。
そのようなルールに従う能力、そしてそれらを推論する能力は、最初の分析で見られるほど明確ではない。
現実世界の規則は必然的にオープンテクスチャ付き用語で区切られ、その規則はおそらく無限の解釈を持つ。
このセットを絞り込むには、現在のAIの範囲内にない複雑な推論プロセスが必要です。
これは自律aiにとって深刻な問題となる。オープンテキストの用語を推論できない場合、現実世界のルールに合致する(あるいは従う)ことはできない。
そして、もし現実世界の規則について説明できないなら、人間法に従うこと、規則に従うこと、書面による合意に従って行動すること、あるいは簡単なこと以上のミッション固有の命令に従うことさえできない。
しかし、これらの問題に取り組む前に、私たちはまず、より根本的な質問に答えなければならない。
それとももっと正確に言えば、我々の人工知能システムはどの解釈を正しいと判断すべきか?
このエッセイにおいて、私は以下の答えを擁護する: ルールに従うAIは、最小限のデファシブル解釈論(MDIA)によって最も支持される解釈に従って行動すべきである。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Le Nozze di Giustizia. Interactions between Artificial Intelligence,
Law, Logic, Language and Computation with some case studies in Traffic
Regulations and Health Care [0.0]
この論文の重要な目的は、数理論理の基礎を人工知能を扱う法的なコミュニティに伝えることである。
AIとは何かを分析した後、ニューラルネットワークと機械学習を別として、ルールベースのAIに身を委ねることにしました。
数学的論理が法則に基づくAIの実践とどのように相互作用するかを見る。
論文 参考訳(メタデータ) (2024-02-09T15:43:31Z) - Social, Legal, Ethical, Empathetic, and Cultural Rules: Compilation and Reasoning (Extended Version) [8.425874385897831]
SLEEC(社会的、法的、倫理的、共感的、文化的)ルールは、AIベースの自律システムが従うべき規則の定式化、検証、実施を促進することを目的としている。
AIシステムで効果的な使用を可能にするためには、これらのルールを自動推論をサポートする形式言語に体系的に翻訳する必要がある。
本研究ではまず,SLEEC規則の古典論理への翻訳を正当化するSLEEC規則パターンの言語学的解析を行う。
論文 参考訳(メタデータ) (2023-12-15T11:23:49Z) - Abstracting Concept-Changing Rules for Solving Raven's Progressive
Matrix Problems [54.26307134687171]
Raven's Progressive Matrix (RPM) は、候補者の中から選択することで、機械知能においてそのような能力を実現する古典的なテストである。
近年の研究では、RPMの解法はルールの深い理解を促進することが示唆されている。
本稿では、解釈可能な概念を学習し、潜在空間における概念変更ルールを解析することにより、概念変更ルールABstraction(CRAB)の潜時変数モデルを提案する。
論文 参考訳(メタデータ) (2023-07-15T07:16:38Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Automating Defeasible Reasoning in Law [0.0]
ルールベースのシステム、特に法的な規範と契約について、デファシブルな推論について研究する。
我々は、ルールがどのように相互作用し、どのようにオーバーライドされるかを指定するルール修飾子を識別する。
次に、これらの修飾子を排除した規則変換を定義し、規則を公式に翻訳する。
論文 参考訳(メタデータ) (2022-05-15T17:14:15Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - Morality, Machines and the Interpretation Problem: A value-based,
Wittgensteinian approach to building Moral Agents [0.0]
機械に道徳性を持たせようとする試みは、我々が解釈問題と呼ぶものである。
我々は、マシンに与えるいかなるルールも、道徳的に不適切な方法で無限の解釈に開放されていると主張する。
論文 参考訳(メタデータ) (2021-03-03T22:34:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。