論文の概要: Chatbots as Problem Solvers: Playing Twenty Questions with Role
Reversals
- arxiv url: http://arxiv.org/abs/2301.01743v1
- Date: Sun, 1 Jan 2023 03:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 15:04:26.857287
- Title: Chatbots as Problem Solvers: Playing Twenty Questions with Role
Reversals
- Title(参考訳): 問題解決としてのチャットボット: 役割逆転による20の質問
- Authors: David Noever, Forrest McKee
- Abstract要約: ChatGPTのような新しいチャットAIアプリケーションは、複数のステップタスクにわたる質問コンテキストとメモリの高度な理解を提供する。
本稿では,ChatGPTが古典的な20問ゲームでプレイするマルチロール・マルチステップの課題を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: New chat AI applications like ChatGPT offer an advanced understanding of
question context and memory across multi-step tasks, such that experiments can
test its deductive reasoning. This paper proposes a multi-role and multi-step
challenge, where ChatGPT plays the classic twenty-questions game but
innovatively switches roles from the questioner to the answerer. The main
empirical result establishes that this generation of chat applications can
guess random object names in fewer than twenty questions (average, 12) and
correctly guess 94% of the time across sixteen different experimental setups.
The research introduces four novel cases where the chatbot fields the
questions, asks the questions, both question-answer roles, and finally tries to
guess appropriate contextual emotions. One task that humans typically fail but
trained chat applications complete involves playing bilingual games of twenty
questions (English answers to Spanish questions). Future variations address
direct problem-solving using a similar inquisitive format to arrive at novel
outcomes deductively, such as patentable inventions or combination thinking.
Featured applications of this dialogue format include complex protein designs,
neuroscience metadata, and child development educational materials.
- Abstract(参考訳): ChatGPTのような新しいチャットAIアプリケーションは、複数のステップタスクにわたる質問コンテキストとメモリの高度な理解を提供する。
本稿では,チャットgptが従来の20問ゲームをプレイするが,イノベーティブに役割を質問者から回答者に切り替えるマルチロール・マルチステップチャレンジを提案する。
主な経験的結果は、この世代のチャットアプリケーションが、20問未満(平均12問)でランダムなオブジェクト名を推測し、16の実験的なセットアップで94%の時間を正確に推測できることである。
この研究は、チャットボットが質問を扱い、質問に答える役割の両方を持ち、最終的に適切な文脈的感情を推測しようとする4つの新しいケースを紹介している。
人間が一般的に失敗するが、訓練されたチャットアプリケーションは20の質問(スペイン語の質問に対する英語の回答)のバイリンガルゲームをプレイする。
将来のバリエーションは、特許可能な発明や組み合わせ思考など、新規な結果に導くために類似の問い合わせ形式を使用して直接的な問題解決に取り組む。
この対話形式の特色は、複雑なタンパク質設計、神経科学メタデータ、児童発達教育材料などである。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - A novel interface for adversarial trivia question-writing [2.132441341551259]
対人書きトリビアの質問を収集するためのインタフェースを導入する。
私たちのインターフェースは、Quiz Bowlのライターやプレイヤーを対象にしています。
利用を促進するために、私たちのインターフェイスにある機械学習ベースのツール群は、人間が質問を書くのを助ける。
論文 参考訳(メタデータ) (2024-03-12T02:37:24Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - NewsDialogues: Towards Proactive News Grounded Conversation [72.10055780635625]
本稿では,対話システムがニュースの重要な話題に基づいて会話を積極的にリードする新しいタスク,Proactive News Grounded Conversationを提案する。
この課題をさらに発展させるために、人間と人間の対話データセットtsNewsDialoguesを収集し、合計14.6Kの発話を含む1Kの会話を含む。
論文 参考訳(メタデータ) (2023-08-12T08:33:42Z) - Adding guardrails to advanced chatbots [5.203329540700177]
2022年11月にChatGPTがローンチされ、AIの新しい時代が到来した。
さまざまな仕事のために、人間がチャットボットに取って代わられるのではないか、という懸念はすでにある。
これらのバイアスは、異なるサブポピュレーションに対して重大な害および/または不平等を引き起こす可能性がある。
論文 参考訳(メタデータ) (2023-06-13T02:23:04Z) - Chatbots put to the test in math and logic problems: A preliminary
comparison and assessment of ChatGPT-3.5, ChatGPT-4, and Google Bard [68.8204255655161]
曖昧さがなく、プレーンテキストのみで完全に記述され、ユニークな、明確に定義された正しい回答を持つ、30の質問を使用します。
回答は記録され、議論され、その強みと弱点を強調します。
その結果,ChatGPT-4はChatGPT-3.5より優れていた。
論文 参考訳(メタデータ) (2023-05-30T11:18:05Z) - What Types of Questions Require Conversation to Answer? A Case Study of
AskReddit Questions [16.75969771718778]
本研究の目的は,会話を通じて最もよく答えられる無謀でオープンな質問の種類を調べることで,会話システムの境界を推し進めることである。
我々は、AskRedditに投稿された100万件のオープンエンドリクエストから500件の質問をサンプリングし、オンラインの群衆労働者を雇い、これらの質問について8つの質問に答えた。
私たちは、人々が十分に解決するために会話を必要とすると信じている問題は、非常に社会的かつ個人的なものであることに気付きました。
論文 参考訳(メタデータ) (2023-03-30T21:05:22Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。