論文の概要: Intensional Artificial Intelligence: From Symbol Emergence to
Explainable and Empathetic AI
- arxiv url: http://arxiv.org/abs/2104.11573v1
- Date: Fri, 23 Apr 2021 13:13:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 13:15:01.597313
- Title: Intensional Artificial Intelligence: From Symbol Emergence to
Explainable and Empathetic AI
- Title(参考訳): インテンテンション型人工知能:シンボル出現から説明可能・共感的aiへ
- Authors: Michael Timothy Bennett, Yoshihiro Maruyama
- Abstract要約: 我々は、説明可能な人工知能は、その決定の根拠を持ち、観察された行動の目的を推測し、聴衆が理解し、意図する文脈でその決定を説明することができるべきであると論じる。
理性は自然言語を必要とし、知覚状態のコーディングとデコードを行う。
言語を習得するために、エージェントは言語自体ではなく、言語が記述する世界をモデル化すべきという意味論を提案します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We argue that an explainable artificial intelligence must possess a rationale
for its decisions, be able to infer the purpose of observed behaviour, and be
able to explain its decisions in the context of what its audience understands
and intends. To address these issues we present four novel contributions.
Firstly, we define an arbitrary task in terms of perceptual states, and discuss
two extremes of a domain of possible solutions. Secondly, we define the
intensional solution. Optimal by some definitions of intelligence, it describes
the purpose of a task. An agent possessed of it has a rationale for its
decisions in terms of that purpose, expressed in a perceptual symbol system
grounded in hardware. Thirdly, to communicate that rationale requires natural
language, a means of encoding and decoding perceptual states. We propose a
theory of meaning in which, to acquire language, an agent should model the
world a language describes rather than the language itself. If the utterances
of humans are of predictive value to the agent's goals, then the agent will
imbue those utterances with meaning in terms of its own goals and perceptual
states. In the context of Peircean semiotics, a community of agents must share
rough approximations of signs, referents and interpretants in order to
communicate. Meaning exists only in the context of intent, so to communicate
with humans an agent must have comparable experiences and goals. An agent that
learns intensional solutions, compelled by objective functions somewhat
analogous to human motivators such as hunger and pain, may be capable of
explaining its rationale not just in terms of its own intent, but in terms of
what its audience understands and intends. It forms some approximation of the
perceptual states of humans.
- Abstract(参考訳): 我々は、説明可能な人工知能は、その決定の根拠を持ち、観察された行動の目的を推測し、聴衆が理解し、意図する文脈でその決定を説明することができるべきであると論じる。
これらの問題に対処するために、私たちは4つの新しい貢献を提示します。
まず、任意のタスクを知覚状態の観点で定義し、可能な解の領域の2つの極小について議論する。
第二に、インテンショナル解を定義する。
知能の定義によって最適であり、タスクの目的を記述する。
有するエージェントは、その目的の観点からその決定の根拠を持ち、ハードウェアを基盤とする知覚記号システムで表現される。
第三に、理性は自然言語を必要とし、知覚状態の符号化と復号を行う。
本稿では,言語を習得するためには,言語自体ではなく,言語が記述する世界をエージェントがモデル化すべき意味論を提案する。
人間の発話がエージェントの目標に対して予測的価値を持つ場合、エージェントはそれらの発話を自身の目標と知覚状態の観点で意味付けする。
パイルセアの記号論の文脈では、エージェントのコミュニティは、通信するためにサイン、参照者、解釈者の粗い近似を共有しなければならない。
意味は意図の文脈にのみ存在し、人間とコミュニケーションするためには、エージェントは同等の経験と目標を持つ必要がある。
空腹や痛みのような人間の動機づけと幾分類似した客観的な機能によって強制されるインテンテンションソリューションを学ぶエージェントは、自身の意図だけでなく、聴衆が理解し意図することの観点でその理論的根拠を説明することができるかもしれない。
それは人間の知覚状態の幾らかの近似を形成する。
関連論文リスト
- Situated Instruction Following [87.37244711380411]
本稿では,実世界のコミュニケーションの非特異性とあいまいさを取り入れた位置指示について述べる。
位置指示の意味は、人間の過去の行動と将来の行動を通じて自然に展開される。
我々の実験は、現在最先端の身体的指示追従(EIF)モデルが、位置する人間の意図の全体的理解を欠いていることを示唆している。
論文 参考訳(メタデータ) (2024-07-15T19:32:30Z) - The Reasons that Agents Act: Intention and Instrumental Goals [24.607124467778036]
AIエージェントに適用可能な、普遍的に受け入れられる意図の理論は存在しない。
我々は,エージェントが決定を下す理由に関して,エージェントが行動する意図を運用する。
我々の定義は、意図という直感的な概念を捉え、過去の作業によって設定されたデシダラタを満足させる。
論文 参考訳(メタデータ) (2024-02-11T14:39:40Z) - (Ir)rationality in AI: State of the Art, Research Challenges and Open
Questions [2.9008806248012333]
合理性の概念は人工知能の分野の中心である。
有理エージェントを構成するものの統一的な定義は存在しない。
特定のシナリオで最適であることを示す不合理な行動を考える。
論文 参考訳(メタデータ) (2023-11-28T19:01:09Z) - The Neuro-Symbolic Inverse Planning Engine (NIPE): Modeling
Probabilistic Social Inferences from Linguistic Inputs [50.32802502923367]
確率的目標推論領域における言語駆動の過程と社会的推論への影響について検討する。
本稿では,エージェントシナリオの言語入力から目標推定を行うニューロシンボリックモデルを提案する。
我々のモデルは人間の反応パターンと密に一致し、LLM単独の使用よりも人間の判断をより良く予測する。
論文 参考訳(メタデータ) (2023-06-25T19:38:01Z) - On the Computation of Meaning, Language Models and Incomprehensible Horrors [0.0]
我々は、意味の基本理論を、人工知能(AGI)の数学的形式主義と統合する。
我々の発見は、意味と知性の関係と、意味を理解して意図する機械を構築する方法に光を当てた。
論文 参考訳(メタデータ) (2023-04-25T09:41:00Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Philosophical Specification of Empathetic Ethical Artificial
Intelligence [0.0]
倫理的AIは、無意味なルールを推論し、ニュアンスと文脈を解釈し、意図を推論する能力を持つ必要がある。
我々は、エージェントを特定するために、エノクティビズム、セミオティックス、知覚記号システム、シンボルの出現を利用する。
それは、記号の意味が学習するにつれて変化し、その意図が目的として象徴的に表されるためである。
論文 参考訳(メタデータ) (2021-07-22T14:37:46Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Emergence of Pragmatics from Referential Game between Theory of Mind
Agents [64.25696237463397]
エージェントが手書きのルールを指定せずに「行間を読む」能力を自発的に学習するアルゴリズムを提案する。
協調型マルチエージェント教育状況における心の理論(ToM)を統合し,適応型強化学習(RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-21T19:37:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。