論文の概要: Thread of Thought Unraveling Chaotic Contexts
- arxiv url: http://arxiv.org/abs/2311.08734v1
- Date: Wed, 15 Nov 2023 06:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 17:01:03.808832
- Title: Thread of Thought Unraveling Chaotic Contexts
- Title(参考訳): カオス的コンテキストの思考のスレッド
- Authors: Yucheng Zhou, Xiubo Geng, Tao Shen, Chongyang Tao, Guodong Long,
Jian-Guang Lou, Jianbing Shen
- Abstract要約: 思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
- 参考スコア(独自算出の注目度): 133.24935874034782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have ushered in a transformative era in the
field of natural language processing, excelling in tasks related to text
comprehension and generation. Nevertheless, they encounter difficulties when
confronted with chaotic contexts (e.g., distractors rather than long irrelevant
context), leading to the inadvertent omission of certain details within the
chaotic context. In response to these challenges, we introduce the "Thread of
Thought" (ThoT) strategy, which draws inspiration from human cognitive
processes. ThoT systematically segments and analyzes extended contexts while
adeptly selecting pertinent information. This strategy serves as a versatile
"plug-and-play" module, seamlessly integrating with various LLMs and prompting
techniques. In the experiments, we utilize the PopQA and EntityQ datasets, as
well as a Multi-Turn Conversation Response dataset (MTCR) we collected, to
illustrate that ThoT significantly improves reasoning performance compared to
other prompting techniques.
- Abstract(参考訳): 大規模言語モデル(llm)は自然言語処理の分野で変革期を迎えており、テキスト理解や生成に関連するタスクに優れている。
それでも、混乱した文脈(例えば、長い無関係な文脈ではなく、邪魔者)に直面すると困難に遭遇し、混乱した文脈内で特定の詳細が不注意に省略される。
これらの課題に対応して,人間の認知過程から着想を得た「思考のスレッド」(thot)戦略を導入する。
ThoTは、適切な情報を選択しながら、拡張コンテキストを体系的にセグメントし、分析する。
この戦略は汎用的な"プラグアンドプレイ"モジュールとして機能し、様々なllmやプロンプト技術とシームレスに統合する。
実験では,PopQA と EntityQ のデータセットと,収集した Multi-Turn Conversation Response dataset (MTCR) を用いて,ThoT が他のプロンプト技術と比較して推論性能を著しく向上することを示す。
関連論文リスト
- Re-Reading Improves Reasoning in Language Models [91.96027668854406]
我々は「再読解(re-reading)」とよばれる、一見単純だが非常に効果的なプロンプト戦略を導入する。
このアプローチは強化の認知原理とシームレスに一致し、LLMが深い洞察を抽出することを可能にする。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z) - Recursion of Thought: A Divide-and-Conquer Approach to Multi-Context
Reasoning with Language Models [58.41943058963672]
我々はRecursion of Thought (RoT)と呼ばれる新しい推論フレームワークを提案する。
RoTはいくつかの特別なトークンを導入し、モデルが出力してコンテキスト関連の操作をトリガーする。
GPT-3を含む複数のアーキテクチャの実験により、RoTは問題を解くためにLMの推論能力を劇的に改善した。
論文 参考訳(メタデータ) (2023-06-12T06:34:16Z) - Can Unsupervised Knowledge Transfer from Social Discussions Help
Argument Mining? [25.43442712037725]
本稿では,教師なし,議論型対話型知識の課題を克服するために,新しい伝達学習戦略を提案する。
本研究では,ChangeMyViewのサブレディットからの議論に富んだ社会的な議論を,教師なしの議論型知識の源泉として活用する。
本稿では,提案手法を補完する,コンポーネント間関係予測のための新しいプロンプトベースの戦略を提案する。
論文 参考訳(メタデータ) (2022-03-24T06:48:56Z) - A Bag of Tricks for Dialogue Summarization [7.7837843673493685]
課題は,複数の話者に属する対話の部分の処理と識別,否定的理解,状況の推論,非公式言語理解の4つである。
事前訓練されたシーケンス・ツー・シーケンス言語モデルを用いて、話者名置換、否定的スコープハイライト、関連するタスクによるマルチタスク学習、ドメイン内のデータの事前学習について検討する。
論文 参考訳(メタデータ) (2021-09-16T21:32:02Z) - Co-Grounding Networks with Semantic Attention for Referring Expression
Comprehension in Videos [96.85840365678649]
エレガントなワンステージの枠組みで動画の表現理解を参照する問題に取り組みます。
意味的注意学習により単フレーム接地精度を高め、クロスフレーム接地一貫性を向上させます。
私たちのモデルは、RefCOCOデータセットのパフォーマンス改善によって示される、画像の表現理解の参照にも適用できます。
論文 参考訳(メタデータ) (2021-03-23T06:42:49Z) - Response Selection for Multi-Party Conversations with Dynamic Topic
Tracking [63.15158355071206]
我々は、応答と関連する会話コンテキストの間のトピックを一致させるために、動的トピック追跡タスクとして応答選択をフレーム化する。
本研究では,大規模な事前学習モデルによる効率的な符号化を支援する新しいマルチタスク学習フレームワークを提案する。
DSTC-8 Ubuntu IRCデータセットの実験結果は、応答選択とトピックのアンタングル化タスクにおける最先端の結果を示している。
論文 参考訳(メタデータ) (2020-10-15T14:21:38Z) - Topic-Aware Multi-turn Dialogue Modeling [91.52820664879432]
本稿では,トピック認識発話を教師なしでセグメント化して抽出する,多元対話モデリングのための新しいソリューションを提案する。
トピック・アウェア・モデリングは、新たに提案されたトピック・アウェア・セグメンテーション・アルゴリズムとトピック・アウェア・デュアル・アテンション・マッチング(TADAM)ネットワークによって実現されている。
論文 参考訳(メタデータ) (2020-09-26T08:43:06Z) - A Survey on Text Simplification [0.0]
Text Simplification (TS)は、コンテンツの言語的複雑さを減らし、理解しやすくすることを目的としている。
この調査は、TSの包括的な概要を提供し、それ以前に使用されていたアプローチの簡単な説明を含むことを目指している。
論文 参考訳(メタデータ) (2020-08-19T18:12:33Z) - Diversifying Dialogue Generation with Non-Conversational Text [38.03510529185192]
非会話的テキストを活用することで対話生成を多様化する新しい視点を提案する。
我々は、フォーラムコメント、イディオム、本スニペットを含む複数の情報源から、大規模な非会話コーパスを収集する。
得られたモデルは、2つの会話データセット上でテストされ、コンテキストとの関連性を犠牲にすることなく、はるかに多様な応答を生成することが示されている。
論文 参考訳(メタデータ) (2020-05-09T02:16:05Z) - Topic Propagation in Conversational Search [0.0]
会話の文脈では、ユーザは、自然言語質問のシーケンスとして、多面的な情報を必要とすることを表現します。
筆者らは,2019 TREC Conversational Assistant Track (CAsT) フレームワークを用いて, (i) トピック認識発話の書き直し, (ii) 書き直された発話の候補節の検索, (iii) ニューラルネットワークによる候補節の再ランク付けを行う。
論文 参考訳(メタデータ) (2020-04-29T10:06:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。