論文の概要: Leveraging Large Language Models for Tacit Knowledge Discovery in Organizational Contexts
- arxiv url: http://arxiv.org/abs/2507.03811v1
- Date: Fri, 04 Jul 2025 21:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.887412
- Title: Leveraging Large Language Models for Tacit Knowledge Discovery in Organizational Contexts
- Title(参考訳): 組織的文脈における暗黙的知識発見のための大規模言語モデルの活用
- Authors: Gianlucca Zuin, Saulo Mastelini, Túlio Loures, Adriano Veloso,
- Abstract要約: 本稿では,従業員とのインタラクションを通じて,データセット記述を反復的に再構築するエージェントベースのフレームワークを提案する。
本研究の結果から, 自己批判的フィードバックスコアは外部文献評論家のスコアと強く相関し, 94.9%の完全知識リコールが達成された。
これらの知見は、エージェントが組織的な複雑さをナビゲートし、そうでなければアクセスできないような断片化された知識をキャプチャする能力を強調している。
- 参考スコア(独自算出の注目度): 0.4499833362998487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Documenting tacit knowledge in organizations can be a challenging task due to incomplete initial information, difficulty in identifying knowledgeable individuals, the interplay of formal hierarchies and informal networks, and the need to ask the right questions. To address this, we propose an agent-based framework leveraging large language models (LLMs) to iteratively reconstruct dataset descriptions through interactions with employees. Modeling knowledge dissemination as a Susceptible-Infectious (SI) process with waning infectivity, we conduct 864 simulations across various synthetic company structures and different dissemination parameters. Our results show that the agent achieves 94.9% full-knowledge recall, with self-critical feedback scores strongly correlating with external literature critic scores. We analyze how each simulation parameter affects the knowledge retrieval process for the agent. In particular, we find that our approach is able to recover information without needing to access directly the only domain specialist. These findings highlight the agent's ability to navigate organizational complexity and capture fragmented knowledge that would otherwise remain inaccessible.
- Abstract(参考訳): 組織における暗黙的な知識の文書化は、不完全な初期情報、知識のある個人を特定することの難しさ、正式な階層と非公式なネットワークの相互運用、適切な質問の必要性など、難しい課題である。
そこで本研究では,大規模言語モデル(LLM)を利用したエージェントベースのフレームワークを提案し,従業員との対話を通じてデータセット記述を反復的に再構築する。
持続感染性 (SI) プロセスとしての知識の普及をモデル化し, 様々な合成企業構造と異なる普及パラメータを用いた864のシミュレーションを行った。
本研究の結果から, 自己批判的フィードバックスコアは外部文献評論家のスコアと強く相関し, 94.9%の完全知識リコールが達成された。
シミュレーションパラメータがエージェントの知識検索プロセスにどのように影響するかを分析する。
特に、我々のアプローチでは、唯一のドメインスペシャリストに直接アクセスする必要なく、情報を回復できることがわかった。
これらの知見は、エージェントが組織的な複雑さをナビゲートし、そうでなければアクセスできないような断片化された知識をキャプチャする能力を強調している。
関連論文リスト
- STRUCTSENSE: A Task-Agnostic Agentic Framework for Structured Information Extraction with Human-In-The-Loop Evaluation and Benchmarking [2.355572228890207]
StructSenseは、大規模言語モデル上に構築された構造化情報抽出のためのモジュラーでタスクに依存しないオープンソースのフレームワークである。
複雑なドメインコンテンツを効果的にエンコードできるドメイン固有のシンボリック知識によって導かれる。
我々は、StructSenseがドメイン感度の限界とクロスタスクの一般化性の欠如を克服できることを実証した。
論文 参考訳(メタデータ) (2025-07-04T15:51:07Z) - When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Contextual Integrity in LLMs via Reasoning and Reinforcement Learning [41.47162246075031]
我々は、文脈整合性を達成するために必要な理由をモデルに具現化する強化学習フレームワークを開発する。
本研究では,タスク性能を維持しながら,不適切な情報開示を大幅に低減することを示す。
論文 参考訳(メタデータ) (2025-05-29T21:26:21Z) - InfoDeepSeek: Benchmarking Agentic Information Seeking for Retrieval-Augmented Generation [63.55258191625131]
InfoDeepSeekは、現実世界の動的Web環境でエージェント情報を求めるための新しいベンチマークである。
本稿では,決定性,難易度,多様性の基準を満たす課題クエリを構築するための体系的手法を提案する。
本研究では,情報探索結果の正確性,有用性,コンパクト性に関する詳細な指標を含む,動的エージェント情報探索に適した最初の評価フレームワークを開発する。
論文 参考訳(メタデータ) (2025-05-21T14:44:40Z) - Data Therapist: Eliciting Domain Knowledge from Subject Matter Experts Using Large Language Models [17.006423792670414]
我々は、ドメインの専門家が混在開始プロセスを通じて暗黙の知識を外部化するのに役立つWebベースのツールであるData Therapistを紹介します。
得られた構造化知識ベースは、人間と自動化された可視化設計の両方に通知することができる。
論文 参考訳(メタデータ) (2025-05-01T11:10:17Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - ReST meets ReAct: Self-Improvement for Multi-Step Reasoning LLM Agent [50.508669199496474]
外部知識に基づいて推論と行動を行うReAct-style LLMエージェントを開発した。
エージェントをReSTライクな手法で改良し,従来の軌道上で反復的に訓練する。
引き起こされた大きなモデルから始まり、アルゴリズムのたった2イテレーションの後に、微調整された小さなモデルを生成することができる。
論文 参考訳(メタデータ) (2023-12-15T18:20:15Z) - Asking Before Acting: Gather Information in Embodied Decision Making with Language Models [20.282749796376063]
本研究では,Large Language Models (LLM) が,不慣れな環境で重要な情報を効率的に収集する上で,課題に直面していることを示す。
我々は,自然言語を用いた関連する情報に対して,エージェントが外部ソースと積極的に問い合わせることを可能にする方法であるtextitAsking Before Acting (ABA)を提案する。
本研究では,テキストベースの日常タスク,ロボットアーム操作タスク,実世界のオープンドメインイメージベース実施タスクを含む,幅広い環境実験を行う。
論文 参考訳(メタデータ) (2023-05-25T04:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。