論文の概要: Self-recognition in conversational agents
- arxiv url: http://arxiv.org/abs/2002.02334v3
- Date: Sun, 5 Sep 2021 11:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 12:48:53.993793
- Title: Self-recognition in conversational agents
- Title(参考訳): 会話エージェントの自己認識
- Authors: Yigit Oktar, Erdem Okur, Mehmet Turkan
- Abstract要約: チューリングテストで自己の考えを持続することは、裁判官がテキストミラーとして振る舞うことを決めた場合、依然として可能である。
成功している自己認識は、人工的な存在における自己認識の強い概念に道を開く可能性がある。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a standard Turing test, a machine has to prove its humanness to the
judges. By successfully imitating a thinking entity such as a human, this
machine then proves that it can also think. Some objections claim that Turing
test is not a tool to demonstrate the existence of general intelligence or
thinking activity. A compelling alternative is the Lovelace test, in which the
agent must originate a product that the agent's creator cannot explain.
Therefore, the agent must be the owner of an original product. However, for
this to happen the agent must exhibit the idea of self and distinguish oneself
from others. Sustaining the idea of self within the Turing test is still
possible if the judge decides to act as a textual mirror. Self-recognition
tests applied on animals through mirrors appear to be viable tools to
demonstrate the existence of a type of general intelligence. Methodology here
constructs a textual version of the mirror test by placing the agent as the one
and only judge to figure out whether the contacted one is an other, a mimicker,
or oneself in an unsupervised manner. This textual version of the mirror test
is objective, self-contained, and devoid of humanness. Any agent passing this
textual mirror test should have or can acquire a thought mechanism that can be
referred to as the inner-voice, answering the original and long lasting
question of Turing "Can machines think?" in a constructive manner still within
the bounds of the Turing test. Moreover, it is possible that a successful
self-recognition might pave way to stronger notions of self-awareness in
artificial beings.
- Abstract(参考訳): 標準的なチューリングテストでは、機械は裁判官に人間性を証明する必要がある。
人間のような思考実体をうまく模倣することで、この機械は思考も可能であることを証明できる。
チューリングテストは一般的な知性や思考活動の存在を示す道具ではないと主張する反論もある。
説得力のある代替案はラヴレステストであり、エージェントはエージェントの作者が説明できない製品を創出しなければならない。
したがって、エージェントはオリジナル製品の所有者でなければならない。
しかし、このためにエージェントは自己の考えを示し、自分自身を他人と区別しなければならない。
チューリングテストで自己の考えを持続することは、裁判官がテキストミラーとして振る舞うことを決めた場合、依然として可能である。
鏡を通して動物に適用された自己認識テストは、汎用知能の存在を実証するための有効なツールであるように見える。
ここでの方法論は、エージェントを1つに置き、接触したエージェントが他方か、模倣者か、あるいは自分自身を教師なしのやり方で判断するだけで、ミラーテストのテキスト版を構築する。
このミラーテストのテキスト版は客観的であり、自己完結しており、人間性がない。
このテキストミラーテストに合格するエージェントは、チューリングテストの範囲内で構成的な方法でチューリングの「機械は考えるか?」という原点と長く続く疑問に答えて、内声と呼ばれることができる思考メカニズムを取得または取得すべきである。
さらに、自己認識の成功は、人工物における自己認識のより強い概念への道を開く可能性がある。
関連論文リスト
- The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - The Human-or-Machine Matter: Turing-Inspired Reflections on an Everyday
Issue [4.309879785418976]
マシンにインテリジェントなラベルを付けることができるのか、あるいは特定のコンテキストにおける人間の能力と一致すると言えるのか、という疑問を副次的に解決する。
「私は人間や機械と対話しているか」という、日常のやりとりの中で、一見単純な質問に最初に注意を向ける。
論文 参考訳(メタデータ) (2023-05-07T15:41:11Z) - Can Machines Imitate Humans? Integrative Turing Tests for Vision and Language Demonstrate a Narrowing Gap [45.6806234490428]
3つの言語タスクと3つのビジョンタスクで人間を模倣する能力において、現在のAIをベンチマークします。
実験では、549人の人間エージェントと26人のAIエージェントがデータセットの作成に使われ、1,126人の人間審査員と10人のAI審査員が参加した。
結果として、現在のAIは、複雑な言語とビジョンの課題において人間を偽装できるものではないことが判明した。
論文 参考訳(メタデータ) (2022-11-23T16:16:52Z) - Sequential Causal Imitation Learning with Unobserved Confounders [82.22545916247269]
猿が猿を見なさい」とは、制度の根底にある仕組みを深く理解せずに「生」の模倣を指して、昔ながらの格言である。
本稿では、エピソード毎に複数の意思決定をしなければならないシーケンシャルセッティングにおける因果模倣学習の問題について検討する。
論文 参考訳(メタデータ) (2022-08-12T13:53:23Z) - The Meta-Turing Test [17.68987003293372]
本研究では,人間と機械の非対称性を除去するチューリング試験の代替案を提案する。
この新しいテストでは、人間と機械の両方がお互いを判断する。
論文 参考訳(メタデータ) (2022-05-11T04:54:14Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Robot in the mirror: toward an embodied computational model of mirror
self-recognition [1.9686770963118383]
鏡の自己認識テストは、被験者の顔に隠れてマークを付け、鏡の前に彼女を置き、反応を観察する。
この作業では、このテストに合格するために必要なコンポーネントについて、機械的分解(mechanistic decomposition)またはプロセスモデルを提供します。
そこで我々は,ヒューマノイドロボットのNuがテストに合格できるようにするモデルを開発した。
論文 参考訳(メタデータ) (2020-11-09T15:11:31Z) - Robot self/other distinction: active inference meets neural networks
learning in a mirror [9.398766540452632]
ロボットがミラー上で非出現自認を行うことを可能にするアルゴリズムを提案する。
このアルゴリズムは、脳内の知覚と行動の理論モデルであるアクティブ推論とニューラルネットワーク学習を組み合わせる。
ヒューマノイドロボットの実験結果から,初期条件の異なるアルゴリズムの信頼性が示された。
論文 参考訳(メタデータ) (2020-04-11T19:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。