論文の概要: HuixiangDou: Overcoming Group Chat Scenarios with LLM-based Technical
Assistance
- arxiv url: http://arxiv.org/abs/2401.08772v1
- Date: Tue, 16 Jan 2024 19:00:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 18:01:54.695381
- Title: HuixiangDou: Overcoming Group Chat Scenarios with LLM-based Technical
Assistance
- Title(参考訳): HuixiangDou: LLMベースの技術支援によるグループチャットシナリオの克服
- Authors: Huanjun Kong, Songyang Zhang, Kai Chen
- Abstract要約: 我々はLarge Language Models (LLM)を利用した技術アシスタントHixiangDouを紹介する。
このシステムは、オープンソースのアルゴリズムプロジェクトに関連する質問に対する洞察に富んだ回答を提供することによって、アルゴリズム開発者を支援するように設計されている。
WeChatやLarkといったインスタントメッセージング(IM)ツールのグループチャットへのこのアシスタントの統合についても検討する。
- 参考スコア(独自算出の注目度): 36.777807905301266
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we present HuixiangDou, a technical assistant powered by Large
Language Models (LLM). This system is designed to assist algorithm developers
by providing insightful responses to questions related to open-source algorithm
projects, such as computer vision and deep learning projects from OpenMMLab. We
further explore the integration of this assistant into the group chats of
instant messaging (IM) tools such as WeChat and Lark. Through several iterative
improvements and trials, we have developed a sophisticated technical chat
assistant capable of effectively answering users' technical questions without
causing message flooding. This paper's contributions include: 1) Designing an
algorithm pipeline specifically for group chat scenarios; 2) Verifying the
reliable performance of text2vec in task rejection; 3) Identifying three
critical requirements for LLMs in technical-assistant-like products, namely
scoring ability, In-Context Learning (ICL), and Long Context. We have made the
software and source code available at https://github.com/internlm/huixiangdou
to aid in future research and application. HuixiangDou is applicable to any
group chat within IM tools.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を利用した技術アシスタントであるHixiangDouを紹介する。
このシステムは,コンピュータビジョンやOpenMMLabのディープラーニングプロジェクトといった,オープンソースのアルゴリズムプロジェクトに関連する質問に対する洞察に富んだ回答を提供することによって,アルゴリズム開発者の支援を目的としている。
WeChatやLarkといったインスタントメッセージング(IM)ツールのグループチャットへのこのアシスタントの統合についても検討する。
反復的な改善と試行を通じて,メッセージの洪水を生じさせることなく,ユーザの技術的質問に効果的に答えることのできる高度な技術チャットアシスタントを開発した。
本論文の貢献は以下のとおりである。
1) グループチャットシナリオに特化したアルゴリズムパイプラインの設計
2) タスク拒否におけるtext2vecの信頼性の検証
3)技術援助的な製品,すなわちスコアリング能力,インコンテキスト学習(ICL),Long Contextの3つの重要な要件を特定する。
我々は、将来の研究と応用を支援するため、ソフトウェアとソースコードをhttps://github.com/internlm/huixiangdouで公開しました。
HuixiangDouはIMツール内の任意のグループチャットに適用できる。
関連論文リスト
- Beyond Code Generation: An Observational Study of ChatGPT Usage in Software Engineering Practice [3.072802875195726]
我々は、ChatGPTを1週間の業務で使用している24人のプロのソフトウェアエンジニアについて、観察的研究を行った。
ChatGPTが使えるソフトウェアアーティファクト(例えばコード)を生成することを期待するのではなく、実践者はChatGPTを使ってタスクの解決方法やトピックについてより抽象的な言葉で学ぶことが多い。
論文 参考訳(メタデータ) (2024-04-23T10:34:16Z) - Wordflow: Social Prompt Engineering for Large Language Models [35.561152762837914]
大規模言語モデル(LLM)は、効果的に使用するには巧妙なプロンプトを必要とする。
本稿では,ソーシャル・プロンプト・エンジニアリングを提案する。ソーシャル・プロンプト・エンジニアリングは,協調的なプロンプト・デザインを促進するために,ソーシャル・コンピューティング技術を活用する新しいパラダイムである。
オープンソースでソーシャルなテキストエディタであるWordflowを導入し,LLMプロンプトの作成,実行,共有,発見を容易にする。
論文 参考訳(メタデータ) (2024-01-25T18:58:11Z) - Multi-User Chat Assistant (MUCA): a Framework Using LLMs to Facilitate
Group Conversations [3.918004958992473]
Multi-User Chat Assistant (MUCA)は、グループディスカッション用に特別に設計されたチャットボットのためのLLMベースのフレームワークである。
MUCAは、適切なチャイムインタイミング、関連コンテンツ、ユーザエンゲージメントの改善など、有効性を示す。
論文 参考訳(メタデータ) (2024-01-10T02:22:21Z) - Lessons from Building StackSpot AI: A Contextualized AI Coding Assistant [2.268415020650315]
大規模言語モデル上に構築された新しいタイプのツールが登場しつつある。
これらのツールは、微調整やコンテキスト情報によるユーザプロンプトの強化といった手法を用いて、欠点を軽減することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T10:51:26Z) - TaskWeaver: A Code-First Agent Framework [51.78992527355425]
TaskWeaverは、LLMで動く自律エージェントを構築するためのコードファーストフレームワークである。
ユーザ要求を実行可能なコードに変換し、ユーザ定義プラグインを呼び出し可能な関数として扱う。
リッチなデータ構造、フレキシブルなプラグイン利用、動的プラグイン選択のサポートを提供する。
論文 参考訳(メタデータ) (2023-11-29T11:23:42Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - ChatCoT: Tool-Augmented Chain-of-Thought Reasoning on Chat-based Large
Language Models [125.7209927536255]
チャットベースのLLMのためのツール拡張チェーン推論フレームワークChatCoTを提案する。
ChatCoTでは、チャットを通じてより自然な方法でツールを活用するために、マルチターン会話として思考の連鎖(CoT)推論をモデル化します。
提案手法は,チャットベースのLLMのマルチターン会話能力を効果的に活用し,思考連鎖とツール操作を統一的に統合する。
論文 参考訳(メタデータ) (2023-05-23T17:54:33Z) - Is ChatGPT the Ultimate Programming Assistant -- How far is it? [11.943927095071105]
ChatGPTは非常に注目されており、ソースコードを議論するためのボットとして使用できる。
完全自動プログラミングアシスタントとしてのChatGPTの可能性について実証的研究を行った。
論文 参考訳(メタデータ) (2023-04-24T09:20:13Z) - A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on
Reasoning, Hallucination, and Interactivity [79.12003701981092]
8種類の共通NLPアプリケーションタスクをカバーする23のデータセットを用いてChatGPTの広範な技術的評価を行う。
これらのデータセットと、新たに設計されたマルチモーダルデータセットに基づいて、ChatGPTのマルチタスク、マルチリンガル、マルチモーダルの側面を評価する。
ChatGPTの精度は平均63.41%で、論理的推論、非テキスト的推論、コモンセンス推論の10の異なる推論カテゴリで正確である。
論文 参考訳(メタデータ) (2023-02-08T12:35:34Z) - TegTok: Augmenting Text Generation via Task-specific and Open-world
Knowledge [83.55215993730326]
本稿では,タスク固有およびオープンワールド知識(TegTok)によるTExt生成の統一化を提案する。
本モデルでは,2種類の知識ソースからの知識エントリを高密度検索により選択し,それぞれ入力エンコーディングと出力デコーディングの段階に注入する。
論文 参考訳(メタデータ) (2022-03-16T10:37:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。