論文の概要: Guided scenarios with simulated expert personae: a remarkable strategy
to perform cognitive work
- arxiv url: http://arxiv.org/abs/2306.03104v1
- Date: Sat, 3 Jun 2023 00:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 19:09:03.479786
- Title: Guided scenarios with simulated expert personae: a remarkable strategy
to perform cognitive work
- Title(参考訳): シミュレートされたエキスパート・パーソナライズによる指導シナリオ--認知作業を行うための驚くべき戦略
- Authors: David Van Buren
- Abstract要約: 大きな言語モデル(LLM)は、人間の知識と文学の実質的なコーパスに基づいて訓練され、そのコーパスから大量の事実を生産的に処理する。
驚くべきことに、彼らはコーパス内で捕獲されたペルソナの行動を再現することもできます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) trained on a substantial corpus of human
knowledge and literature productively work with a large array of facts from
that corpus. Surprisingly, they are also able to re-create the behaviors of
personae that are captured within the corpus. By forming teams of simulated
personae, supplying contexts that set the stage, and providing gentle prompts,
one can move through scenarios that elicit expert behavior to perform
meaningful cognitive work. The power of this strategy is demonstrated with two
examples, one attacking factuality of LLM responses and the other reproducing a
very recently published result in quantum optics.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間の知識と文学の実質的なコーパスに基づいて訓練され、そのコーパスから大量の事実を扱う。
驚くべきことに、彼らはコーパス内で捕獲されたペルソナの行動を再現することもできます。
シミュレーションされたペルソナのチームを形成し、ステージを設定するコンテキストを提供し、穏やかなプロンプトを提供することで、専門家の振る舞いを導き出し、有意義な認知作業を行うことができる。
この戦略の威力は、llm応答の事実性を攻撃することと、量子光学において最近発表された結果を再現することの2つの例で示される。
関連論文リスト
- Says Who? Effective Zero-Shot Annotation of Focalization [0.0]
物語が提示される視点であるフォカライゼーションは、幅広い語彙文法的特徴を通じて符号化される。
本研究では,同時代のLarge Language Models (LLMs) が,文章のアノテート時にいかに機能するかを検証する実験を行う。
論文 参考訳(メタデータ) (2024-09-17T17:50:15Z) - SIFToM: Robust Spoken Instruction Following through Theory of Mind [51.326266354164716]
本稿では,認知にインスパイアされた音声指導モデルであるSIFToMを提案し,多様な音声条件下でロボットが人間の指示を実践的に追従できるようにする。
結果から,SIFToMモデルは現状の音声モデルや言語モデルよりも優れており,課題に追従する音声命令に対する人間レベルの精度に近づいていることがわかった。
論文 参考訳(メタデータ) (2024-09-17T02:36:10Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - Large Language Models Need Consultants for Reasoning: Becoming an Expert in a Complex Human System Through Behavior Simulation [5.730580726163518]
大規模言語モデル(LLM)は、数学、法学、コーディング、常識、世界知識といった分野において、人間に匹敵する優れた能力を示してきた。
本稿では,生成エージェントによるシミュレーション技術を活用した新たな推論フレームワークであるMosaic Expert Observation Wall' (MEOW)を提案する。
論文 参考訳(メタデータ) (2024-03-27T03:33:32Z) - Human Simulacra: Benchmarking the Personification of Large Language Models [38.21708264569801]
大規模言語モデル(LLM)は、人間の知性の側面を忠実に模倣するシステムとして認識されている。
本稿では,仮想キャラクタのライフストーリーをゼロから構築するためのフレームワークを提案する。
実験により, 構築したシミュラクラは, 対象キャラクタと一致した擬人化応答を生成できることが実証された。
論文 参考訳(メタデータ) (2024-02-28T09:11:14Z) - In-Context Learning Dynamics with Random Binary Sequences [16.645695664776433]
テキスト内学習のダイナミクスを解析できるフレームワークを提案する。
人間の知覚の認知科学に触発されて、ランダムなバイナリシーケンスをコンテキストとして使用する。
最新のGPT-3.5+モデルでは、一見ランダムな数を生成し、基本形式言語を学習する創発的な能力を見出す。
論文 参考訳(メタデータ) (2023-10-26T17:54:52Z) - Character-LLM: A Trainable Agent for Role-Playing [67.35139167985008]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートするエージェントとして用いられる。
本稿では, ベートーヴェン, クレオパトラ女王, ユリウス・カエサルなど, LLM に特定の人物として行動するように教えるキャラクタ-LLMを紹介する。
論文 参考訳(メタデータ) (2023-10-16T07:58:56Z) - ASE: Large-Scale Reusable Adversarial Skill Embeddings for Physically
Simulated Characters [123.88692739360457]
汎用運動技術により、人間は複雑な作業を行うことができる。
これらのスキルは、新しいタスクを学ぶときの振る舞いを導くための強力な先駆者も提供します。
物理シミュレーション文字のための汎用的で再利用可能なスキル埋め込みを学習するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-04T06:13:28Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。