論文の概要: SFT-TA: Supervised Fine-Tuned Agents in Multi-Agent LLMs for Automated Inductive Thematic Analysis
- arxiv url: http://arxiv.org/abs/2509.17167v1
- Date: Sun, 21 Sep 2025 17:26:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.144211
- Title: SFT-TA: Supervised Fine-Tuned Agents in Multi-Agent LLMs for Automated Inductive Thematic Analysis
- Title(参考訳): SFT-TA:多エージェントLDMにおける微調整剤の誘導的自動解析への応用
- Authors: Seungjun Yi, Joakim Nguyen, Huimin Xu, Terence Lim, Joseph Skrovan, Mehak Beri, Hitakshi Modi, Andrew Well, Liu Leqi, Mia Markey, Ying Ding,
- Abstract要約: SFT-TAは,教師付き微調整(SFT)エージェントをマルチエージェントシステムに組み込む自動テーマ解析フレームワークである。
我々のフレームワークは、既存のフレームワークとGPt-4oベースラインを人間の参照テーマに合わせて上回ります。
以上の結果から,SFTエージェントをマルチエージェントシステムに組み込むことが,目的とする出力との整合性を向上させる上で有望な方法であることが示唆された。
- 参考スコア(独自算出の注目度): 6.034612088418682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Thematic Analysis (TA) is a widely used qualitative method that provides a structured yet flexible framework for identifying and reporting patterns in clinical interview transcripts. However, manual thematic analysis is time-consuming and limits scalability. Recent advances in LLMs offer a pathway to automate thematic analysis, but alignment with human results remains limited. To address these limitations, we propose SFT-TA, an automated thematic analysis framework that embeds supervised fine-tuned (SFT) agents within a multi-agent system. Our framework outperforms existing frameworks and the gpt-4o baseline in alignment with human reference themes. We observed that SFT agents alone may underperform, but achieve better results than the baseline when embedded within a multi-agent system. Our results highlight that embedding SFT agents in specific roles within a multi-agent system is a promising pathway to improve alignment with desired outputs for thematic analysis.
- Abstract(参考訳): Thematic Analysis (TA) は、臨床面接書のパターンを特定し、報告するための構造的だが柔軟なフレームワークを提供する、広く使われている定性的な方法である。
しかし、手動のテーマ分析は時間がかかりスケーラビリティが制限される。
LLMの最近の進歩は、テーマ分析を自動化する経路を提供するが、人間の結果との整合性は限られている。
これらの制約に対処するため、マルチエージェントシステム内に教師付き微調整(SFT)エージェントを組み込む自動テーマ解析フレームワークであるSFT-TAを提案する。
我々のフレームワークは、既存のフレームワークとgpt-4oベースラインを人間の参照テーマに合わせて上回ります。
マルチエージェントシステムに組み込んだ場合, SFT エージェント単独で性能は低下するが, ベースラインよりも良好な結果が得られた。
以上の結果から,SFTエージェントをマルチエージェントシステムに組み込むことが,目的とする出力との整合性を向上させる上で有望な方法であることが示唆された。
関連論文リスト
- A Framework for Analyzing Abnormal Emergence in Service Ecosystems Through LLM-based Agent Intention Mining [18.607974352313832]
本稿では,マルチエージェント・インテンション(EAMI)に基づく創発分析の枠組みを紹介する。
EAMIは動的かつ解釈可能な出現分析を可能にする。
複合オンラインオフライン(O2O)サービスシステムにおけるEAMIを検証する実験。
論文 参考訳(メタデータ) (2025-07-21T16:26:49Z) - Auto-TA: Towards Scalable Automated Thematic Analysis (TA) via Multi-Agent Large Language Models with Reinforcement Learning [3.3212706551453155]
先天性心疾患(CHD: Congenital heart disease)は、従来の臨床指標では示されていない、複雑で寿命の長い課題である。
本稿では,臨床物語のエンド・ツー・エンドのセマンティック分析を行う,完全自動大規模言語モデル(LLM)パイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-30T16:02:28Z) - Graft: Integrating the Domain Knowledge via Efficient Parameter Synergy for MLLMs [56.76586846269894]
MLLM(Multimodal Large Language Models)は、様々な領域で成功している。
その重要性にもかかわらず、ドメイン固有のMLLM間の知識共有の研究はほとんど未調査のままである。
専門家機能のモジュール構成を可能にする統一パラメータ統合フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-30T15:07:41Z) - Manalyzer: End-to-end Automated Meta-analysis with Multi-agent System [48.093356587573666]
メタアナリシス(Meta-analysis)は、複数の既存の研究からデータを合成し、包括的な結論を導き出す体系的な研究手法である。
伝統的なメタ分析は、文献検索、紙のスクリーニング、データ抽出を含む複雑な多段階パイプラインを含む。
本稿では,ツールコールによるエンドツーエンドの自動メタ分析を実現するマルチエージェントシステムManalyzerを提案する。
論文 参考訳(メタデータ) (2025-05-22T07:25:31Z) - TAMA: A Human-AI Collaborative Thematic Analysis Framework Using Multi-Agent LLMs for Clinical Interviews [54.35097932763878]
Thematic Analysis (TA) は、構造化されていないテキストデータの潜在意味を明らかにするために広く使われている定性的手法である。
本稿では,多エージェントLEMを用いた人間とAIの協調的テーマ分析フレームワークTAMAを提案する。
TAMA は既存の LLM 支援TA アプローチよりも優れており,高い主題的ヒット率,カバレッジ,独特性を実現している。
論文 参考訳(メタデータ) (2025-03-26T15:58:16Z) - Optimizing Collaboration of LLM based Agents for Finite Element Analysis [1.5039745292757671]
本稿では,Large Language Models (LLM) 内の複数のエージェント間の相互作用について,プログラミングおよびコーディングタスクの文脈で検討する。
我々はAutoGenフレームワークを利用してエージェント間の通信を容易にし、各セットアップの40のランダムランからの成功率に基づいて異なる構成を評価する。
論文 参考訳(メタデータ) (2024-08-23T23:11:08Z) - Self-prompted Chain-of-Thought on Large Language Models for Open-domain
Multi-hop Reasoning [70.74928578278957]
オープンドメイン質問回答(ODQA)では、ほとんどの既存の質問はコモンセンスのシングルホップ推論を必要とする。
大規模言語モデル(LLM)は、外部コーパスなしでODQAを促進するために重要な有用性を見出した。
高品質なCoTを大量生産する自動化フレームワークSP-CoTを提案する。
論文 参考訳(メタデータ) (2023-10-20T14:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。