論文の概要: "Is the Pope Catholic?" Applying Chain-of-Thought Reasoning to
Understanding Conversational Implicatures
- arxiv url: http://arxiv.org/abs/2305.13826v1
- Date: Tue, 23 May 2023 08:49:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 17:48:27.272256
- Title: "Is the Pope Catholic?" Applying Chain-of-Thought Reasoning to
Understanding Conversational Implicatures
- Title(参考訳): 「教皇はカトリックですか?」
チェーン・オブ・ソート推論による会話障害の理解
- Authors: Zae Myung Kim, David E. Taylor, Dongyeop Kang
- Abstract要約: 本稿では, Grice's Four Maxims をチェーン・オブ・シークレット・プロンプトを通じてモデルに組み込むことで, その性能を大幅に向上できることを示す。
- 参考スコア(独自算出の注目度): 9.788111783388615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational implicatures are pragmatic inferences that require listeners
to deduce the intended meaning conveyed by a speaker from their explicit
utterances. Although such inferential reasoning is fundamental to human
communication, recent research indicates that large language models struggle to
comprehend these implicatures as effectively as the average human. This paper
demonstrates that by incorporating Grice's Four Maxims into the model through
chain-of-thought prompting, we can significantly enhance its performance,
surpassing even the average human performance on this task.
- Abstract(参考訳): 会話的模倣(conversational implicature)とは、話者が明示的な発話から伝達する意図的な意味を、リスナーが推測することを要求する実用的な推論である。
このような推論推論は人間のコミュニケーションに不可欠であるが、最近の研究は、大きな言語モデルがこれらの不適応を平均的な人間と同じくらい効果的に理解するのに苦労していることを示している。
本稿では,Grice's Four Maximsをチェーン・オブ・シークレット・プロンプトを通じてモデルに組み込むことで,その性能を大幅に向上させることができることを示す。
関連論文リスト
- Communicating with Speakers and Listeners of Different Pragmatic Levels [14.94138113774852]
本稿では,言語学習のシミュレートによるコミュニケーション成功に対する可変語学能力の影響について検討する。
より明示的でリテラルな言語からの学習は、学習者の実践的能力のレベルに関係なく、有利であることがわかった。
論文 参考訳(メタデータ) (2024-10-08T09:42:37Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Igniting Language Intelligence: The Hitchhiker's Guide From
Chain-of-Thought Reasoning to Language Agents [80.5213198675411]
大規模言語モデル(LLM)は言語知能の分野を劇的に拡張した。
LLMは興味をそそるチェーン・オブ・シークレット(CoT)推論技術を活用し、答えを導き出す途中の中間ステップを定式化しなければならない。
最近の研究は、自律言語エージェントの開発を促進するためにCoT推論手法を拡張している。
論文 参考訳(メタデータ) (2023-11-20T14:30:55Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Discourse over Discourse: The Need for an Expanded Pragmatic Focus in
Conversational AI [0.5884031187931463]
会話の要約と他の会話型AIアプリケーションにおけるいくつかの課題について論じる。
本稿では,いわゆる星文による現実語の重要性について述べる。
AIの品質の基準は人間の行動と区別できないため、苦情を"Turing Test Triggers"とラベル付けします。
論文 参考訳(メタデータ) (2023-04-27T21:51:42Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Learning to refer informatively by amortizing pragmatic reasoning [35.71540493379324]
我々は、話者が時間とともに合理的な音声行為のコストを減らそうとするアイデアを探求する。
我々のアモータライズされたモデルは、様々な文脈で効果的かつ簡潔な言語を迅速に生成できることがわかりました。
論文 参考訳(メタデータ) (2020-05-31T02:52:22Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。