論文の概要: CHOIR: A Chatbot-mediated Organizational Memory Leveraging Communication in University Research Labs
- arxiv url: http://arxiv.org/abs/2509.20512v1
- Date: Wed, 24 Sep 2025 19:35:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.569319
- Title: CHOIR: A Chatbot-mediated Organizational Memory Leveraging Communication in University Research Labs
- Title(参考訳): CHOIR:University Research Labsにおけるチャットボットによる組織記憶を利用したコミュニケーション
- Authors: Sangwook Lee, Adnan Abbas, Yan Chen, Young-Ho Kim, Sang Won Lee,
- Abstract要約: CHOIRは、ドキュメントベースQ&A、フォローアップディスカッションのためのQ&A共有、会話からの知識抽出、AI支援ドキュメント更新の4つの重要な機能を通じて、組織記憶をサポートする。
私たちはCHOIRを4つの研究室に1ヶ月間展開しました。そこでは、ラボのメンバーが107の質問をし、ラボのディレクターが組織の記憶の中で38回ドキュメントを更新しました。
質問はプライベートに質問され、ドキュメントのギャップへの監督の視認性が制限された。
- 参考スコア(独自算出の注目度): 22.35447434868935
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: University research labs often rely on chat-based platforms for communication and project management, where valuable knowledge surfaces but is easily lost in message streams. Documentation can preserve knowledge, but it requires ongoing maintenance and is challenging to navigate. Drawing on formative interviews that revealed organizational memory challenges in labs, we designed CHOIR, an LLM-based chatbot that supports organizational memory through four key functions: document-grounded Q&A, Q&A sharing for follow-up discussion, knowledge extraction from conversations, and AI-assisted document updates. We deployed CHOIR in four research labs for one month (n=21), where the lab members asked 107 questions and lab directors updated documents 38 times in the organizational memory. Our findings reveal a privacy-awareness tension: questions were asked privately, limiting directors' visibility into documentation gaps. Students often avoided contribution due to challenges in generalizing personal experiences into universal documentation. We contribute design implications for privacy-preserving awareness and supporting context-specific knowledge documentation.
- Abstract(参考訳): 大学の研究機関は、しばしばコミュニケーションとプロジェクト管理のためのチャットベースのプラットフォームに依存し、貴重な知識が浮上するが、メッセージストリームで簡単に失われる。
ドキュメンテーションは知識を保存できるが、継続的なメンテナンスが必要であり、ナビゲートが難しい。
実験室における組織記憶の課題を明らかにするフォーマティブなインタビューに基づいて、私たちは、ドキュメントグラウンドドQ&A、フォローアップディスカッションのためのQ&A共有、会話からの知識抽出、AI支援ドキュメント更新の4つの主要な機能を通じて、組織記憶をサポートするLLMベースのチャットボットであるCHOIRを設計しました。
私たちはCHOIRを4つの研究室に1ヶ月(n=21)展開しました。
質問はプライベートに質問され、ドキュメントのギャップへの監督の視認性が制限された。
学生は、個人的な経験を普遍的なドキュメントに一般化するという課題のために、しばしば貢献を避けた。
我々は,プライバシ保護意識とコンテキスト固有の知識ドキュメントのサポートに設計上の意義を貢献する。
関連論文リスト
- AquiLLM: a RAG Tool for Capturing Tacit Knowledge in Research Groups [0.0]
研究グループは、チームメンバに分散した知識の取得、保存、検索において、永続的な課題に直面します。
AquiLLMは研究グループのニーズを満たすために設計された軽量でモジュラーなRAGシステムである。
論文 参考訳(メタデータ) (2025-07-25T20:47:01Z) - MuDoC: An Interactive Multimodal Document-grounded Conversational AI System [4.7191037525744735]
長いドキュメントと対話するマルチモーダルなドキュメントグラウンドAIシステムを構築することは、依然として課題である。
GPT-4oに基づく対話型対話型AIエージェント「MuDoC」を提案する。
論文 参考訳(メタデータ) (2025-02-14T01:05:51Z) - Unimib Assistant: designing a student-friendly RAG-based chatbot for all their needs [1.0805849839756092]
このパイロットスタディは,OpenAIカスタムGPT機能を用いた検索・拡張生成(RAG)システムによるChatGPT動作の専門化に重点を置いている。
我々はミラノ・ビコッカ大学(Unimib)の学生の特定のニーズに対する情報と解決策を提供するUnimib Assistantを開発した。
ユーザの満足度と全体的な経験は、システムが常に正確な情報を提供することができないことで損なわれた。
論文 参考訳(メタデータ) (2024-11-29T09:07:21Z) - LongMemEval: Benchmarking Chat Assistants on Long-Term Interactive Memory [68.97819665784442]
チャットアシスタントの5つのコアメモリ能力を評価するためのベンチマークであるLongMemEvalを紹介する。
LongMemEvalは、既存の長期記憶システムにとって重要な課題である。
本稿では,長期記憶設計をインデックス化,検索,読解の3段階に分割する統合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-14T17:59:44Z) - LLM Task Interference: An Initial Study on the Impact of Task-Switch in Conversational History [45.36907713446517]
本研究では,会話履歴におけるタスクスイッチによる会話型大言語モデル(LLM)の脆弱性とタスクの干渉について検討する。
実験の結果,タスクスイッチの多くで性能が著しく低下することが判明した。
論文 参考訳(メタデータ) (2024-02-28T10:19:05Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [53.288356721954514]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z) - Asking for Knowledge: Training RL Agents to Query External Knowledge
Using Language [121.56329458876655]
グリッドワールドベースのQ-BabyAIとテキストベースのQ-TextWorldの2つの新しい環境を紹介した。
本稿では,意味のある知識を問うための言語コマンドを生成する「知識の探索(AFK)」エージェントを提案する。
論文 参考訳(メタデータ) (2022-05-12T14:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。