論文の概要: PersonaFlow: Designing LLM-Simulated Expert Perspectives for Enhanced Research Ideation
- arxiv url: http://arxiv.org/abs/2409.12538v2
- Date: Wed, 09 Jul 2025 05:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.247649
- Title: PersonaFlow: Designing LLM-Simulated Expert Perspectives for Enhanced Research Ideation
- Title(参考訳): ペルソナフロー:LLMを模擬した専門家による研究思想の展開
- Authors: Yiren Liu, Pranav Sharma, Mehul Jitendra Oswal, Haijun Xia, Yun Huang,
- Abstract要約: PersonaFlowは、LLMを使用してドメイン固有のエキスパートをシミュレートすることで、複数の視点を提供するように設計されたシステムである。
ユーザ調査の結果、新しいデザインは、考えられた研究方向性の認識と創造性を高めた。
専門家のプロフィールをカスタマイズするユーザの能力は、エージェンシーの感覚を大幅に改善し、AIへの過度な依存を軽減する可能性がある。
- 参考スコア(独自算出の注目度): 12.593617990325528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating interdisciplinary research ideas requires diverse domain expertise, but access to timely feedback is often limited by the availability of experts. In this paper, we introduce PersonaFlow, a novel system designed to provide multiple perspectives by using LLMs to simulate domain-specific experts. Our user studies showed that the new design 1) increased the perceived relevance and creativity of ideated research directions, and 2) promoted users' critical thinking activities (e.g., interpretation, analysis, evaluation, inference, and self-regulation), without increasing their perceived cognitive load. Moreover, users' ability to customize expert profiles significantly improved their sense of agency, which can potentially mitigate their over-reliance on AI. This work contributes to the design of intelligent systems that augment creativity and collaboration, and provides design implications of using customizable AI-simulated personas in domains within and beyond research ideation.
- Abstract(参考訳): 学際的な研究のアイデアを生成するには、さまざまな分野の専門知識が必要ですが、タイムリーなフィードバックへのアクセスは、専門家の可用性によって制限されます。
本稿では、LLMを用いてドメイン固有のエキスパートをシミュレートすることで、複数の視点を提供するように設計された新しいシステムであるPersonaFlowを紹介する。
私たちのユーザー調査によると、新しいデザインは、
1)考えられた研究方向性の認知的関連性と創造性を高め、
2) 認知負荷を増大させることなく, ユーザの批判的思考活動(解釈, 分析, 評価, 推論, 自己統制)を促進させた。
さらに、専門家プロファイルをカスタマイズするユーザの能力は、エージェンシーの感覚を大幅に改善し、AIへの過度な依存を軽減する可能性がある。
この研究は、創造性とコラボレーションを増強するインテリジェントシステムの設計に貢献し、研究思想の内外領域におけるカスタマイズ可能なAIシミュレートされたペルソナの使用に関する設計上の意味を提供する。
関連論文リスト
- IRIS: Interactive Research Ideation System for Accelerating Scientific Discovery [27.218896203253987]
IRISは、研究者が大規模言語モデル(LLM)を補助する科学的概念を活用するために設計されたオープンソースのプラットフォームである。
IRISは、モンテカルロ木探索(MCTS)による適応的なテスト時間計算拡張、きめ細かいフィードバック機構、クエリベースの文献合成など、アイデアを強化する革新的な機能を備えている。
我々は様々な分野の研究者とユーザスタディを行い、システムの有効性を検証し、アイデアの充実を図っている。
論文 参考訳(メタデータ) (2025-04-23T14:01:36Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Vital Insight: Assisting Experts' Sensemaking Process of Multi-modal Personal Tracking Data Using Visualization and LLM [25.264865296828116]
Vital Insightは、ビジュアライゼーションと大規模言語モデルによる直接表現と間接推論を組み合わせたエビデンスベースの「センスメイキング」システムである。
我々は、マルチモーダルトラッキングの専門家14名とともに、ユーザテストセッションにおいて、Vital Insightを評価し、設計上の意味を合成し、AIが支援する推論と直接データ表現を反復的に移動して洞察を探索、検索、質問、検証する専門家のセンスメイキングモデルを開発した。
論文 参考訳(メタデータ) (2024-10-18T21:56:35Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、大規模言語モデルによる研究アイデア作成エージェントである。
科学文献に基づいて繰り返し精製しながら、問題、方法、実験設計を生成する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Apprentices to Research Assistants: Advancing Research with Large Language Models [0.0]
大規模言語モデル(LLM)は、様々な研究領域において強力なツールとして登場した。
本稿では,文献レビューと手動実験を通じてその可能性について考察する。
論文 参考訳(メタデータ) (2024-04-09T15:53:06Z) - Reading Users' Minds from What They Say: An Investigation into LLM-based Empathic Mental Inference [6.208698652041961]
人間中心の設計では、ユーザエクスペリエンスの包括的で詳細な理解を開発することが最重要である。
人間の大きな集団の 精神状態の正確な理解は 今も重要な課題です
本稿では,大規模言語モデル(LLM)を用いたメンタル推論タスクの実施について検討する。
論文 参考訳(メタデータ) (2024-03-20T04:57:32Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate [57.71597869337909]
われわれはChatEvalと呼ばれるマルチエージェントの審判チームを構築し、異なるモデルから生成された応答の品質を自律的に議論し評価する。
分析の結果,ChatEvalは単なるテキストスコアリングを超越し,信頼性評価のための人間模倣評価プロセスを提供することがわかった。
論文 参考訳(メタデータ) (2023-08-14T15:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。