論文の概要: ELIZA Reinterpreted: The world's first chatbot was not intended as a chatbot at all
- arxiv url: http://arxiv.org/abs/2406.17650v1
- Date: Tue, 25 Jun 2024 15:41:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 13:51:04.510638
- Title: ELIZA Reinterpreted: The world's first chatbot was not intended as a chatbot at all
- Title(参考訳): ELIZA再解釈:世界初のチャットボットはチャットボットとして意図されたものではなかった
- Authors: Jeff Shrager,
- Abstract要約: ELIZAは1960年代初頭にJoseph Wezenbaumによって書かれた。
ELIZAは、AIの技術史における中心的なスレッドの一部の交差から生まれた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ELIZA, often considered the world's first chatbot, was written by Joseph Weizenbaum in the early 1960s. Weizenbaum did not intend to invent the chatbot, but rather to build a platform for research into human-machine conversation and the important cognitive processes of interpretation and misinterpretation. His purpose was obscured by ELIZA's fame, resulting in large part from the fortuitous timing of it's creation, and it's escape into the wild. In this paper I provide a rich historical context for ELIZA's creation, demonstrating that ELIZA arose from the intersection of some of the central threads in the technical history of AI. I also briefly discuss how ELIZA escaped into the world, and how its accidental escape, along with several coincidental turns of the programming language screws, led both to the misapprehension that ELIZA was intended as a chatbot, and to the loss of the original ELIZA to history for over 50 years.
- Abstract(参考訳): ELIZAはしばしば世界初のチャットボットと見なされ、1960年代初頭にジョセフ・ワイゼンバウムによって書かれた。
ワイゼンバウムはチャットボットを発明するつもりはなく、人間と機械の会話と解釈と誤解の重要な認知過程を研究するためのプラットフォームを構築するつもりであった。
彼の目的はエリザの名声によって曖昧にされ、それが創造の絶好のタイミングから大きくなり、野生に逃げ込んだ。
本稿では,AI技術史における中心的スレッドの交点からERIZAが生じたことを示す。
ELIZAがいかにして世界に逃避したのか、そしてその偶発的な脱走が、プログラミング言語のネジの偶然のターンとともに、ELIZAがチャットボットとして意図されていたという誤解と、50年以上の歴史に残るオリジナルのELIZAの喪失につながったかについても、簡単に議論しました。
関連論文リスト
- Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - On the consistent reasoning paradox of intelligence and optimal trust in AI: The power of 'I don't know' [79.69412622010249]
一貫性推論(Consistent reasoning)は、人間の知性の中心にある、同等のタスクを扱う能力である。
CRPは、一貫性のある推論は誤認を意味する、と論じている。
論文 参考訳(メタデータ) (2024-08-05T10:06:53Z) - History of generative Artificial Intelligence (AI) chatbots: past,
present, and future development [1.6019538204169677]
この研究は、ChatGPTやGoogle Bardといった、今日の高度な会話エージェントに繋がる重要なイノベーションをトレースする。
この論文は、自然言語処理と機械学習が、より高度な機能のために現代のチャットボットにどのように統合されたかを強調している。
論文 参考訳(メタデータ) (2024-02-04T05:01:38Z) - Bias and Fairness in Chatbots: An Overview [38.21995125571103]
現代のチャットボットはより強力で、現実世界のアプリケーションで使われてきた。
膨大なトレーニングデータ、非常に大きなモデルサイズ、解釈可能性の欠如、バイアス緩和、公正保存は困難である。
論文 参考訳(メタデータ) (2023-09-16T02:01:18Z) - Human or Not? A Gamified Approach to the Turing Test [11.454575816255039]
チューリングテストに触発されたオンラインゲーム「Human or Not?
このゲームは1ヶ月で150万人以上のユーザーがプレイした。
全体として、ゲームの68%でパートナーの正体を正確に推測した。
ユーザーがAIボットに直面したゲームのサブセットでは、ユーザーは正しい推測率を60%も下げていた。
論文 参考訳(メタデータ) (2023-05-31T16:32:22Z) - Chatbots put to the test in math and logic problems: A preliminary
comparison and assessment of ChatGPT-3.5, ChatGPT-4, and Google Bard [68.8204255655161]
曖昧さがなく、プレーンテキストのみで完全に記述され、ユニークな、明確に定義された正しい回答を持つ、30の質問を使用します。
回答は記録され、議論され、その強みと弱点を強調します。
その結果,ChatGPT-4はChatGPT-3.5より優れていた。
論文 参考訳(メタデータ) (2023-05-30T11:18:05Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - Addressing Inquiries about History: An Efficient and Practical Framework
for Evaluating Open-domain Chatbot Consistency [28.255324166852535]
整合性評価のためのAIH(Addressing Inquiries about History)フレームワークを提案する。
会話の段階では、AIHは対話履歴に関する適切な質問に対処し、チャットボットに歴史的な事実や意見を再宣言する。
矛盾認識段階では、人間の判断または自然言語推論(NLI)モデルを用いて、質問に対する回答が歴史と矛盾しているかどうかを認識することができる。
論文 参考訳(メタデータ) (2021-06-04T03:04:13Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Artificial Intelligence is stupid and causal reasoning won't fix it [0.0]
Judea Pearl氏が提案するキーは、推論を因果推論と関連付けることで置き換えることだ。
AIマシーンが因果関係を把握できないというほどではないが、AIマシーン – 準計算 – はまったく理解できない。
論文 参考訳(メタデータ) (2020-07-20T22:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。