論文の概要: Exploring Augmentation and Cognitive Strategies for AI based Synthetic Personae
- arxiv url: http://arxiv.org/abs/2404.10890v1
- Date: Tue, 16 Apr 2024 20:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 17:52:27.131444
- Title: Exploring Augmentation and Cognitive Strategies for AI based Synthetic Personae
- Title(参考訳): AIに基づく合成ペルソナの強化と認知戦略の探求
- Authors: Rafael Arias Gonzalez, Steve DiPaola,
- Abstract要約: 本稿では、ゼロショットジェネレータではなく、データ拡張システムとして大規模言語モデル(LLM)を使用することを提唱する。
LLM応答をガイドする堅牢な認知・記憶フレームワークの開発を提案する。
初期の調査では、データの豊かさ、エピソード記憶、自己回帰技術が合成人格の信頼性を向上させることが示唆された。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) hold potential for innovative HCI research, including the creation of synthetic personae. However, their black-box nature and propensity for hallucinations pose challenges. To address these limitations, this position paper advocates for using LLMs as data augmentation systems rather than zero-shot generators. We further propose the development of robust cognitive and memory frameworks to guide LLM responses. Initial explorations suggest that data enrichment, episodic memory, and self-reflection techniques can improve the reliability of synthetic personae and open up new avenues for HCI research.
- Abstract(参考訳): 大型言語モデル(LLM)は、合成人格の作成を含む革新的なHCI研究の可能性を秘めている。
しかし、そのブラックボックスの性質と幻覚の正当性は困難を呈する。
これらの制約に対処するために、このポジションペーパーはゼロショットジェネレータではなく、データ拡張システムとしてLLMを使うことを提唱する。
さらに,LSM応答をガイドする堅牢な認知・記憶フレームワークの開発を提案する。
初期の調査では、データの豊かさ、エピソード記憶、自己回帰技術が合成人格の信頼性を高め、HCI研究のための新たな道を開くことが示唆された。
関連論文リスト
- GIVE: Structured Reasoning with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを統合する新しい推論フレームワークである。
本手法は,ゴールド回答検索ではなく,専門家の問題解決に類似した論理的・段階的推論手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - 'Simulacrum of Stories': Examining Large Language Models as Qualitative Research Participants [13.693069737188859]
生産モデルに関する最近の興奮は、研究開発における人間の参加と労働の置き換えを示唆する提案の波を引き起こしている。
我々は,このパラダイムシフトの視点を理解するために,19人の定性的な研究者にインタビューを行った。
論文 参考訳(メタデータ) (2024-09-28T18:28:47Z) - From Linguistic Giants to Sensory Maestros: A Survey on Cross-Modal Reasoning with Large Language Models [56.9134620424985]
クロスモーダル推論(CMR)は、より高度な人工知能システムへの進化における重要な能力として、ますます認識されている。
CMRタスクに取り組むためにLLM(Large Language Models)をデプロイする最近のトレンドは、その有効性を高めるためのアプローチの新たな主流となっている。
本調査では,LLMを用いてCMRで適用された現在の方法論を,詳細な3階層分類に分類する。
論文 参考訳(メタデータ) (2024-09-19T02:51:54Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Concerns on Bias in Large Language Models when Creating Synthetic Personae [0.0]
本稿では,HCI研究に合成人格を取り入れることのメリット,欠点,倫理的考察について考察する。
この研究は、これらのモデルにかかわる課題を理解するための基盤を確立することを目的としており、それらを利用して合成人格を作成する前に徹底的なテストの必要性を強調している。
論文 参考訳(メタデータ) (2024-05-08T14:24:11Z) - Understanding Privacy Risks of Embeddings Induced by Large Language Models [75.96257812857554]
大きな言語モデルは、人工知能の初期の兆候を示すが、幻覚に苦しむ。
1つの有望な解決策は、外部知識を埋め込みとして保存し、LLMを検索強化世代に支援することである。
近年の研究では、事前学習された言語モデルによるテキスト埋め込みから、元のテキストを部分的に再構築できることが実験的に示されている。
論文 参考訳(メタデータ) (2024-04-25T13:10:48Z) - Personalized LLM Response Generation with Parameterized Memory Injection [19.417549781029233]
大規模言語モデル(LLM)は、自然言語の理解と生成に優れた能力を発揮している。
パーソナライズされたLSM応答生成は、医療などの重要な分野の個人に多大な利益をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-04-04T16:20:34Z) - Generative AI for Synthetic Data Generation: Methods, Challenges and the
Future [12.506811635026907]
大規模言語モデル(LLM)から合成データを生成する研究の最近の動向
本稿では,タスク固有トレーニングデータの生成にこれらの巨大なLCMを活用する高度な技術について述べる。
論文 参考訳(メタデータ) (2024-03-07T03:38:44Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - A Study on the Implementation of Generative AI Services Using an
Enterprise Data-Based LLM Application Architecture [0.0]
本研究では,Large Language Models (LLM) アプリケーションアーキテクチャを用いて生成AIサービスを実装する手法を提案する。
この研究は、不十分なデータの問題を軽減するための戦略を練り上げ、カスタマイズされたソリューションを提供している。
この研究の重要な貢献は、検索型拡張世代(RAG)モデルの開発である。
論文 参考訳(メタデータ) (2023-09-03T07:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。