論文の概要: The ShareLM Collection and Plugin: Contributing Human-Model Chats for the Benefit of the Community
- arxiv url: http://arxiv.org/abs/2408.08291v1
- Date: Thu, 15 Aug 2024 17:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 13:05:43.294004
- Title: The ShareLM Collection and Plugin: Contributing Human-Model Chats for the Benefit of the Community
- Title(参考訳): ShareLM Collection and Plugin: Contributing Human-Model Chats for the Benefit of the Community
- Authors: Shachar Don-Yehiya, Leshem Choshen, Omri Abend,
- Abstract要約: 大規模な言語モデルと統合された人間会話セットであるShareLMコレクションとそのプラグインについて紹介する。
このプラグインを使うと、会話とレスポンスのレベルの両方で会話を評価でき、プライベートにしたい会話を削除することができる。
われわれは、ShareLMコレクションの一部としてプラグインの会話を公開し、オープンなヒューマンモデルデータ分野におけるコミュニティの取り組みを求めている。
- 参考スコア(独自算出の注目度): 25.266461597402056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-model conversations provide a window into users' real-world scenarios, behavior, and needs, and thus are a valuable resource for model development and research. While for-profit companies collect user data through the APIs of their models, using it internally to improve their own models, the open source and research community lags behind. We introduce the ShareLM collection, a unified set of human conversations with large language models, and its accompanying plugin, a Web extension for voluntarily contributing user-model conversations. Where few platforms share their chats, the ShareLM plugin adds this functionality, thus, allowing users to share conversations from most platforms. The plugin allows the user to rate their conversations, both at the conversation and the response levels, and delete conversations they prefer to keep private before they ever leave the user's local storage. We release the plugin conversations as part of the ShareLM collection, and call for more community effort in the field of open human-model data. The code, plugin, and data are available.
- Abstract(参考訳): ヒューマンモデル会話は、ユーザの現実のシナリオ、振る舞い、ニーズの窓口を提供するため、モデル開発と研究にとって貴重なリソースである。
非営利団体は、自身のモデルのAPIを通じてユーザデータを収集し、内部でモデルを改善するためにそれを使用しているが、オープンソースと研究コミュニティは遅れを取っている。
大規模言語モデルとの統一された会話セットであるShareLMコレクションと,ユーザモデル会話を自発的にコントリビュートするためのWeb拡張であるプラグインについて紹介する。
チャットを共有するプラットフォームはほとんどないが、ShareLMプラグインにはこの機能が追加され、ユーザーはほとんどのプラットフォームから会話を共有することができる。
このプラグインを使うと、会話とレスポンスのレベルの両方で会話を評価でき、ユーザーのローカルストレージを離れる前にプライベートにしたい会話を削除することができる。
われわれは、ShareLMコレクションの一部としてプラグインの会話を公開し、オープンなヒューマンモデルデータ分野におけるコミュニティの取り組みを求めている。
コード、プラグイン、データは利用可能だ。
関連論文リスト
- SAUCE: Synchronous and Asynchronous User-Customizable Environment for Multi-Agent LLM Interaction [12.948174983519785]
グループシミュレーションのためのカスタマイズ可能なPythonプラットフォームであるSAUCEを紹介する。
我々のプラットフォームは、モデルをインスタンス化し、レスポンスをスケジューリングし、議論履歴を管理し、包括的なアウトプットログを生成する。
SAUCEの新機能は非同期通信機能です。
論文 参考訳(メタデータ) (2024-11-05T18:31:06Z) - Beyond the Turn-Based Game: Enabling Real-Time Conversations with Duplex Models [66.24055500785657]
従来のターンベースのチャットシステムは、ユーザが応答を生成している間に、システムが言葉で対話することを防ぐ。
これらの制限を克服するため,既存のLCMをユーザを聴きながら出力を生成し,ユーザに対して即時フィードバックを提供する。
クエリとレスポンスの時間スライスを交互に行うデータセットを構築し、インスタントインタラクションにおける典型的なフィードバックタイプをカバーする。
論文 参考訳(メタデータ) (2024-06-22T03:20:10Z) - Hidden in Plain Sight: Exploring Chat History Tampering in Interactive Language Models [12.920884182101142]
大規模言語モデル(LLM)は、実世界のアプリケーションで普及し、素晴らしいテキスト生成性能を示している。
LLMベースのチャットシステムは、対話的に振る舞うためには、事前に定義された構造に従って、事前のチャット履歴を入力のコンテキストとして統合する必要がある。
本稿では,目標モデルの事前知識を必要とせずに,LLM会話にユーザ提供履歴を注入するための体系的手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T16:36:47Z) - WildChat: 1M ChatGPT Interaction Logs in the Wild [88.05964311416717]
WildChatは100万件のユーザー・チャットGPT会話のコーパスで、250万回以上のインタラクション・ターンで構成されている。
タイムスタンプによるチャットの書き起こしに加えて、州、国、ハッシュIPアドレスを含む人口統計データでデータセットを豊かにします。
論文 参考訳(メタデータ) (2024-05-02T17:00:02Z) - PersonalityChat: Conversation Distillation for Personalized Dialog
Modeling with Facts and Traits [5.447308344436046]
PersonalityChatは、人気のPersonaChatデータセットに基づいた合成会話データセットである。
生成対話モデルの特質に基づくパーソナライズには,性格特性ラベルが有効であることを示す。
論文 参考訳(メタデータ) (2024-01-14T20:35:33Z) - ModelScope-Agent: Building Your Customizable Agent System with
Open-source Large Language Models [74.64651681052628]
本稿では,オープンソースのLCMをコントローラとする実世界のアプリケーションのためのカスタマイズ可能なエージェントフレームワークであるModelScope-Agentを紹介する。
ユーザフレンドリーなシステムライブラリを提供し、カスタマイズ可能なエンジン設計により、複数のオープンソースLLMでモデルトレーニングをサポートする。
ツール使用データ収集、ツール検索、ツール登録、メモリ制御、カスタマイズされたモデルトレーニング、評価にまたがる包括的なフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-09-02T16:50:30Z) - MemoChat: Tuning LLMs to Use Memos for Consistent Long-Range Open-Domain
Conversation [43.24092422054248]
そこで本稿では,大規模言語モデルに対して,自己合成メモを効果的に活用するためのパイプラインを提案する。
我々は、反復的な「記憶-記憶-記憶-応答」サイクルを通して、長い範囲のオープンドメイン会話を実演する。
これらの命令は、LLMに、構造化されたメモによる過去の対話を記憶し、検索するように教えるために、公開データセットの集合から再構築される。
論文 参考訳(メタデータ) (2023-08-16T09:15:18Z) - Video-ChatGPT: Towards Detailed Video Understanding via Large Vision and Language Models [59.525108086957296]
Video-ChatGPTは、ビデオ適応型ビジュアルエンコーダとLLMをマージするマルチモーダルモデルである。
ビデオに関する詳細な会話を理解し、生成することができる。
我々は,ビデオチャットGPTのトレーニングに使用される10,000対のビデオ命令ペアの新しいデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:59:56Z) - TikTalk: A Video-Based Dialogue Dataset for Multi-Modal Chitchat in Real
World [97.58623810402563]
我々はTikTalkと呼ばれるビデオベースのマルチモーダル対話データセットを導入する。
人気ビデオ共有プラットフォームから38Kのビデオを収集し、その下のユーザーから367Kの会話を投稿した。
ユーザーはビデオのマルチモーダルな体験に基づいて自発的な会話をし、現実世界のchitchatコンテキストを再現する。
論文 参考訳(メタデータ) (2023-01-14T10:18:22Z) - COLA: Improving Conversational Recommender Systems by Collaborative
Augmentation [9.99763097964222]
アイテム表現学習とユーザ嗜好モデリングの両方を改善するために,協調的拡張(COLA)手法を提案する。
すべての会話から対話型ユーザテムグラフを構築し,ユーザ認識情報によってアイテム表現を拡大する。
ユーザの嗜好モデルを改善するため,学習コーパスから類似した会話を検索し,ユーザの興味を反映した関連項目や属性を用いてユーザ表現を増強する。
論文 参考訳(メタデータ) (2022-12-15T12:37:28Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。