論文の概要: Ask the experts: sourcing high-quality datasets for nutritional
counselling through Human-AI collaboration
- arxiv url: http://arxiv.org/abs/2401.08420v1
- Date: Tue, 16 Jan 2024 15:07:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 09:25:03.568268
- Title: Ask the experts: sourcing high-quality datasets for nutritional
counselling through Human-AI collaboration
- Title(参考訳): Ask the Expert:Human-AIコラボレーションによる栄養カウンセリングのための高品質データセットのソーシング
- Authors: Simone Balloccu, Ehud Reiter, Vivek Kumar, Diego Reforgiato Recupero
and Daniele Riboni
- Abstract要約: LLM(Large Language Models)は、利用可能なコーパスがほとんど、あるいは全くないドメインの強力なデータソースである。
このケーススタディでは、パブリックリソースを欠いたドメインである栄養カウンセリングを選択し、高品質なデータセットを収集できることを示します。
われわれはまず、食生活に関する新しいデータセットをクラウドソースしてクラスタ化し、その後専門家と協力してChatGPTに関連スポンサードテキストの作成を促す。
- 参考スコア(独自算出の注目度): 12.50284624502704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs), with their flexible generation abilities, can
be powerful data sources in domains with few or no available corpora. However,
problems like hallucinations and biases limit such applications. In this case
study, we pick nutrition counselling, a domain lacking any public resource, and
show that high-quality datasets can be gathered by combining LLMs,
crowd-workers and nutrition experts. We first crowd-source and cluster a novel
dataset of diet-related issues, then work with experts to prompt ChatGPT into
producing related supportive text. Finally, we let the experts evaluate the
safety of the generated text. We release HAI-coaching, the first
expert-annotated nutrition counselling dataset containing ~2.4K dietary
struggles from crowd workers, and ~97K related supportive texts generated by
ChatGPT. Extensive analysis shows that ChatGPT while producing highly fluent
and human-like text, also manifests harmful behaviours, especially in sensitive
topics like mental health, making it unsuitable for unsupervised use.
- Abstract(参考訳): 柔軟性のある生成能力を持つ大規模言語モデル(LLM)は、利用可能なコーパスがほとんどあるいは全くないドメインの強力なデータソースとなる。
しかし、幻覚や偏見といった問題はそのような応用を制限する。
本研究では,公共資源を欠く領域である栄養カウンセリングを選択し,LLM,クラウドワーカー,栄養専門家を組み合わせて高品質なデータセットを収集できることを示す。
われわれはまず、食生活に関する新しいデータセットをクラウドソースしてクラスタ化し、その後専門家と協力してChatGPTに関連スポンサードテキストの作成を促す。
最後に,生成したテキストの安全性を専門家に評価させる。
HAI-coachingは,ChatGPTが生成した約2.4Kの食事障害と約97Kの関連サポートテキストを含む,最初の専門家による栄養カウンセリングデータセットである。
広範囲な分析によると、ChatGPTは高度に流動的で人間らしいテキストを生成する一方で、有害な行動、特にメンタルヘルスのようなセンシティブなトピックに現れ、教師なしの使用には適さない。
関連論文リスト
- Co-Trained Retriever-Generator Framework for Question Generation in Earnings Calls [26.21777910802591]
本稿は、決算報告のコンテキストに特化して設計されたマルチクエストジェネレーション(MQG)タスクの先駆者である。
当社の手法は、収支報告書の総括収集と、潜在的な質問を分類するための新しいアノテーション技術を含む。
アナリストが提示する可能性のある潜在的な質問のスペクトルを生成するための中核的な目的として、私たちはこれらを直接、収支報告の内容から導き出します。
論文 参考訳(メタデータ) (2024-09-27T12:04:58Z) - ExpertQA: Expert-Curated Questions and Attributed Answers [51.68314045809179]
我々は,様々な属性と事実の軸に沿って,いくつかの代表システムからの応答を人為的に評価する。
我々は32分野にわたる484人の被験者から専門家による質問を収集し、同じ専門家に自身の質問に対する反応を評価する。
分析の結果は,32分野にまたがる2177の質問と,回答の検証とクレームの属性を備えた高品質な長文QAデータセットであるExpertQAである。
論文 参考訳(メタデータ) (2023-09-14T16:54:34Z) - DevGPT: Studying Developer-ChatGPT Conversations [12.69439932665687]
本稿では、ソフトウェア開発者がChatGPTとどのように相互作用するかを調査するためのデータセットであるDevGPTを紹介する。
データセットには、ChatGPTからの29,778のプロンプトとレスポンスが含まれており、コードスニペットは19,106である。
論文 参考訳(メタデータ) (2023-08-31T06:55:40Z) - ChatGPT is a Remarkable Tool -- For Experts [9.46644539427004]
生産性の向上,問題解決プロセスの合理化,書き込みスタイルの改善など,ChatGPTの可能性を探究する。
これらの分野では、ChatGPTへの過度な依存に関連する潜在的なリスクを強調します。
われわれはChatGPTが有益であることを証明した分野と目的、ChatGPTを法的に使用するべきアプリケーション、信頼性が制限されるシナリオについて概説する。
論文 参考訳(メタデータ) (2023-06-02T06:28:21Z) - ExpertPrompting: Instructing Large Language Models to be Distinguished
Experts [93.58012324415762]
ExpertPromptingは、著名な専門家として答えるために、大きな言語モデルの可能性を秘めている。
我々はGPT-3.5を使って新しい命令追跡データを作成し、ExpertLLaMAと呼ばれる競合するオープンソースのチャットアシスタントを訓練する。
論文 参考訳(メタデータ) (2023-05-24T03:51:31Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Learning gain differences between ChatGPT and human tutor generated
algebra hints [4.438259529250529]
本研究は,ChatGPTの学習成績評価を行い,そのヒントの有効性と教師によるヒントとを比較した。
その結果,ChatGPTが生成したヒントの70%が手作業による品質チェックに合格し,人間とChatGPTの条件が正の学習効果をもたらすことがわかった。
論文 参考訳(メタデータ) (2023-02-14T07:20:48Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。