論文の概要: PersonaFlow: Designing LLM-Simulated Expert Perspectives for Enhanced Research Ideation
- arxiv url: http://arxiv.org/abs/2409.12538v2
- Date: Wed, 09 Jul 2025 05:59:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.247649
- Title: PersonaFlow: Designing LLM-Simulated Expert Perspectives for Enhanced Research Ideation
- Title(参考訳): ペルソナフロー:LLMを模擬した専門家による研究思想の展開
- Authors: Yiren Liu, Pranav Sharma, Mehul Jitendra Oswal, Haijun Xia, Yun Huang,
- Abstract要約: PersonaFlowは、LLMを使用してドメイン固有のエキスパートをシミュレートすることで、複数の視点を提供するように設計されたシステムである。
ユーザ調査の結果、新しいデザインは、考えられた研究方向性の認識と創造性を高めた。
専門家のプロフィールをカスタマイズするユーザの能力は、エージェンシーの感覚を大幅に改善し、AIへの過度な依存を軽減する可能性がある。
- 参考スコア(独自算出の注目度): 12.593617990325528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating interdisciplinary research ideas requires diverse domain expertise, but access to timely feedback is often limited by the availability of experts. In this paper, we introduce PersonaFlow, a novel system designed to provide multiple perspectives by using LLMs to simulate domain-specific experts. Our user studies showed that the new design 1) increased the perceived relevance and creativity of ideated research directions, and 2) promoted users' critical thinking activities (e.g., interpretation, analysis, evaluation, inference, and self-regulation), without increasing their perceived cognitive load. Moreover, users' ability to customize expert profiles significantly improved their sense of agency, which can potentially mitigate their over-reliance on AI. This work contributes to the design of intelligent systems that augment creativity and collaboration, and provides design implications of using customizable AI-simulated personas in domains within and beyond research ideation.
- Abstract(参考訳): 学際的な研究のアイデアを生成するには、さまざまな分野の専門知識が必要ですが、タイムリーなフィードバックへのアクセスは、専門家の可用性によって制限されます。
本稿では、LLMを用いてドメイン固有のエキスパートをシミュレートすることで、複数の視点を提供するように設計された新しいシステムであるPersonaFlowを紹介する。
私たちのユーザー調査によると、新しいデザインは、
1)考えられた研究方向性の認知的関連性と創造性を高め、
2) 認知負荷を増大させることなく, ユーザの批判的思考活動(解釈, 分析, 評価, 推論, 自己統制)を促進させた。
さらに、専門家プロファイルをカスタマイズするユーザの能力は、エージェンシーの感覚を大幅に改善し、AIへの過度な依存を軽減する可能性がある。
この研究は、創造性とコラボレーションを増強するインテリジェントシステムの設計に貢献し、研究思想の内外領域におけるカスタマイズ可能なAIシミュレートされたペルソナの使用に関する設計上の意味を提供する。
関連論文リスト
- Exploring the Impact of Occupational Personas on Domain-Specific QA [3.3590922002216193]
本研究では, PBP (Professional Personality-Based Personas) とOPBP (Occupational Personality-Based Personas) の2つのタイプのペルソナを導入して, 専門的なQAパフォーマンスを高めるか分析する。
PBPは精度をわずかに向上できるが、OPBPはタスクに意味論的に関係していても性能を劣化させることがある。
本研究は,ペルソナ関連性だけでは効果的な知識利用を保証せず,最適な知識応用を妨げる認知的制約を課すことを示唆している。
論文 参考訳(メタデータ) (2025-05-30T10:35:39Z) - Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - Towards Artificial Intelligence Research Assistant for Expert-Involved Learning [64.7438151207189]
大規模言語モデル (LLMs) と大規模多モードモデル (LMMs) は科学研究における変革的ツールとして登場している。
textbfExpert-involved textbfLearning (ARIEL)のためのtextbfARtificial textbfIntelligence Research Assistantを提案する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - IRIS: Interactive Research Ideation System for Accelerating Scientific Discovery [27.218896203253987]
IRISは、研究者が大規模言語モデル(LLM)を補助する科学的概念を活用するために設計されたオープンソースのプラットフォームである。
IRISは、モンテカルロ木探索(MCTS)による適応的なテスト時間計算拡張、きめ細かいフィードバック機構、クエリベースの文献合成など、アイデアを強化する革新的な機能を備えている。
我々は様々な分野の研究者とユーザスタディを行い、システムの有効性を検証し、アイデアの充実を図っている。
論文 参考訳(メタデータ) (2025-04-23T14:01:36Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Vital Insight: Assisting Experts' Sensemaking Process of Multi-modal Personal Tracking Data Using Visualization and LLM [25.264865296828116]
Vital Insightは、ビジュアライゼーションと大規模言語モデルによる直接表現と間接推論を組み合わせたエビデンスベースの「センスメイキング」システムである。
我々は、マルチモーダルトラッキングの専門家14名とともに、ユーザテストセッションにおいて、Vital Insightを評価し、設計上の意味を合成し、AIが支援する推論と直接データ表現を反復的に移動して洞察を探索、検索、質問、検証する専門家のセンスメイキングモデルを開発した。
論文 参考訳(メタデータ) (2024-10-18T21:56:35Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers [90.26363107905344]
大型言語モデル(LLM)は、科学的な発見を加速する可能性についての楽観主義を喚起した。
LLMシステムは、新しい専門家レベルのアイデアを生み出すための第一歩を踏み出すことができるという評価はない。
論文 参考訳(メタデータ) (2024-09-06T08:25:03Z) - Translating Expert Intuition into Quantifiable Features: Encode Investigator Domain Knowledge via LLM for Enhanced Predictive Analytics [2.330270848695646]
本稿では,調査対象から得られた洞察を定量的かつ実用的な特徴に体系的に変換することで,ギャップを埋める大規模言語モデルの可能性を探る。
我々は、LLMの自然言語理解機能を活用して、これらの赤いフラグを既存の予測モデルに容易に統合可能な構造化機能セットにエンコードするフレームワークを提案する。
その結果、リスク評価と意思決定精度が大幅に向上し、高度な機械学習技術と人間の経験的知識を融合させることの価値が強調された。
論文 参考訳(メタデータ) (2024-05-11T13:23:43Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、大規模言語モデルによる研究アイデア作成エージェントである。
科学文献に基づいて繰り返し精製しながら、問題、方法、実験設計を生成する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Apprentices to Research Assistants: Advancing Research with Large Language Models [0.0]
大規模言語モデル(LLM)は、様々な研究領域において強力なツールとして登場した。
本稿では,文献レビューと手動実験を通じてその可能性について考察する。
論文 参考訳(メタデータ) (2024-04-09T15:53:06Z) - Reading Users' Minds from What They Say: An Investigation into LLM-based Empathic Mental Inference [6.208698652041961]
人間中心の設計では、ユーザエクスペリエンスの包括的で詳細な理解を開発することが最重要である。
人間の大きな集団の 精神状態の正確な理解は 今も重要な課題です
本稿では,大規模言語モデル(LLM)を用いたメンタル推論タスクの実施について検討する。
論文 参考訳(メタデータ) (2024-03-20T04:57:32Z) - Supporting Experts with a Multimodal Machine-Learning-Based Tool for
Human Behavior Analysis of Conversational Videos [40.30407535831779]
そこで我々は,プロビデンス(Providence)を開発した。プロビデンス(Providence)は,専門家による形式的な研究から得られた設計上の考察に基づくビジュアルプログラミングツールである。
これにより、専門家はさまざまな機械学習アルゴリズムを組み合わせることで、コードを書くことなく人間の行動の手がかりを捉えることができる。
本研究は,会話の場面検索タスクの達成に要する認知負荷が少なく,ユーザビリティと満足度の高いアウトプットを示した。
論文 参考訳(メタデータ) (2024-02-17T00:27:04Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate [57.71597869337909]
われわれはChatEvalと呼ばれるマルチエージェントの審判チームを構築し、異なるモデルから生成された応答の品質を自律的に議論し評価する。
分析の結果,ChatEvalは単なるテキストスコアリングを超越し,信頼性評価のための人間模倣評価プロセスを提供することがわかった。
論文 参考訳(メタデータ) (2023-08-14T15:13:04Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。