論文の概要: Perspectra: Choosing Your Experts Enhances Critical Thinking in Multi-Agent Research Ideation
- arxiv url: http://arxiv.org/abs/2509.20553v1
- Date: Wed, 24 Sep 2025 20:39:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.585167
- Title: Perspectra: Choosing Your Experts Enhances Critical Thinking in Multi-Agent Research Ideation
- Title(参考訳): Perspectra: 専門家を選ぶことは、マルチエージェントな研究思想に批判的思考を促す
- Authors: Yiren Liu, Viraj Shah, Sangho Suh, Pao Siangliulue, Tal August, Yun Huang,
- Abstract要約: 本稿では,PLMエージェント間の対話型MASであるPerspectraについて,フォーラムスタイルのインタフェースを用いて検討する。
参加者18名を対象に,グループチャットベースラインとPerspectraを比較した。
以上の結果から,Perspectraは批判的思考行動の頻度と深さを有意に増加させ,学際的回答を多く引き起こし,より頻繁な提案修正を導いた。
- 参考スコア(独自算出の注目度): 15.43042911424345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in multi-agent systems (MAS) enable tools for information search and ideation by assigning personas to agents. However, how users can effectively control, steer, and critically evaluate collaboration among multiple domain-expert agents remains underexplored. We present Perspectra, an interactive MAS that visualizes and structures deliberation among LLM agents via a forum-style interface, supporting @-mention to invite targeted agents, threading for parallel exploration, with a real-time mind map for visualizing arguments and rationales. In a within-subjects study with 18 participants, we compared Perspectra to a group-chat baseline as they developed research proposals. Our findings show that Perspectra significantly increased the frequency and depth of critical-thinking behaviors, elicited more interdisciplinary replies, and led to more frequent proposal revisions than the group chat condition. We discuss implications for designing multi-agent tools that scaffold critical thinking by supporting user control over multi-agent adversarial discourse.
- Abstract(参考訳): 近年のマルチエージェントシステム(MAS)の進歩により,エージェントにペルソナを割り当てることで,情報検索と思考のためのツールが実現されている。
しかし、複数のドメインエキスパートエージェント間のコラボレーションを効果的に制御し、管理し、批判的に評価する方法はまだ未検討である。
対話型MASであるPerspectraは、フォーラムスタイルのインタフェースでLLMエージェント間の議論を可視化し、構造化し、@-mentionをサポートしてターゲットエージェントを招待し、並列探索のためのスレッド化を行い、議論と合理性を可視化するリアルタイムマインドマップを提供する。
その結果,18名の被験者を対象に,グループチャットのベースラインとPerspectraを比較した。
以上の結果から,Perspectraは批判的思考行動の頻度と深さを有意に増加させ,学際的回答を多く引き起こし,グループチャット条件よりも頻繁な提案修正を導いた。
本稿では,マルチエージェント対外談話に対するユーザ制御を支援することによって,批判的思考を足場とするマルチエージェントツールの設計の意義について論じる。
関連論文リスト
- Learning to Summarize by Learning to Quiz: Adversarial Agentic Collaboration for Long Document Summarization [86.98098988779809]
SummQは長期文書要約のための新しい逆多重エージェントフレームワークである。
提案手法では,包括的な要約を作成し,評価するために協調作業を行う要約ジェネレータとレビュアーを用いる。
広範に使用されている3つの文書要約ベンチマーク上でSummQを評価する。
論文 参考訳(メタデータ) (2025-09-25T08:36:19Z) - Beyond Brainstorming: What Drives High-Quality Scientific Ideas? Lessons from Multi-Agent Collaboration [59.41889496960302]
本稿では,構造化マルチエージェントの議論が独創的思考を超えうるかどうかを考察する。
研究提案を作成するための協調型マルチエージェントフレームワークを提案する。
エージェントベースのスコアリングと,新規性,戦略的ビジョン,統合深度といった領域にわたるヒューマンレビューを備えた包括的プロトコルを採用している。
論文 参考訳(メタデータ) (2025-08-06T15:59:18Z) - Exploring Design of Multi-Agent LLM Dialogues for Research Ideation [4.561804070932164]
大規模言語モデル(LLM)は、研究アイデア生成のような創造的なタスクをサポートするために、ますます使われている。
エージェントの役割の異なる構成、エージェントの数、対話深度を比較し、これらの要因が生成したアイデアの新規性と実現可能性にどのように影響するかを理解する。
論文 参考訳(メタデータ) (2025-07-11T06:53:46Z) - Literature Review Of Multi-Agent Debate For Problem-Solving [0.0]
マルチエージェント大規模言語モデル(MA-LLM)は、複雑なタスクに対処するために複数の対話型言語エージェントを活用する、急速に成長する研究分野である。
本稿では,エージェントプロファイル,コミュニケーション構造,意思決定プロセスに関する最新の研究を概説する。
論文 参考訳(メタデータ) (2025-05-29T13:57:00Z) - A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - AgentBoard: An Analytical Evaluation Board of Multi-turn LLM Agents [74.16170899755281]
本稿では,LLMエージェントの分析的評価に適したオープンソース評価フレームワークであるAgentBoardを紹介する。
AgentBoardは、インクリメンタルな進歩と包括的な評価ツールキットをキャプチャする、きめ細かい進捗率のメトリクスを提供する。
これはLLMエージェントの能力と限界に光を当てるだけでなく、その性能の解釈可能性も最前線に広める。
論文 参考訳(メタデータ) (2024-01-24T01:51:00Z) - ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate [57.71597869337909]
われわれはChatEvalと呼ばれるマルチエージェントの審判チームを構築し、異なるモデルから生成された応答の品質を自律的に議論し評価する。
分析の結果,ChatEvalは単なるテキストスコアリングを超越し,信頼性評価のための人間模倣評価プロセスを提供することがわかった。
論文 参考訳(メタデータ) (2023-08-14T15:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。