論文の概要: Putting Humans in the Natural Language Processing Loop: A Survey
- arxiv url: http://arxiv.org/abs/2103.04044v1
- Date: Sat, 6 Mar 2021 06:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 16:07:05.441447
- Title: Putting Humans in the Natural Language Processing Loop: A Survey
- Title(参考訳): 自然言語処理ループに人間を配置する:調査
- Authors: Zijie J. Wang, Dongjin Choi, Shenyu Xu, Diyi Yang
- Abstract要約: 人間のフィードバックから学ぶ自然言語処理(NLP)システムをどのように設計できますか?
Human-in-the-loop (HITL) NLPフレームワークは、モデル自体を改善するために、人間のフィードバックを継続的に統合する研究団体が増えている。
機械学習(ML)とHCI(Human-Computer Interaction)の両コミュニティのHITL NLPに関する調査を実施した。
- 参考スコア(独自算出の注目度): 13.53277201606357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we design Natural Language Processing (NLP) systems that learn from
human feedback? There is a growing research body of Human-in-the-loop (HITL)
NLP frameworks that continuously integrate human feedback to improve the model
itself. HITL NLP research is nascent but multifarious -- solving various NLP
problems, collecting diverse feedback from different people, and applying
different methods to learn from collected feedback. We present a survey of HITL
NLP work from both Machine Learning (ML) and Human-Computer Interaction (HCI)
communities that highlights its short yet inspiring history, and thoroughly
summarize recent frameworks focusing on their tasks, goals, human interactions,
and feedback learning methods. Finally, we discuss future directions for
integrating human feedback in the NLP development loop.
- Abstract(参考訳): 人間のフィードバックから学ぶ自然言語処理(NLP)システムをどのように設計できますか?
Human-in-the-loop (HITL) NLPフレームワークは、モデル自体を改善するために、人間のフィードバックを継続的に統合する研究団体が増えている。
HITL NLP研究は、さまざまなNLP問題を解決し、さまざまな人々から多様なフィードバックを集め、さまざまな方法で収集されたフィードバックから学ぶことができます。
本稿では,機械学習(ML)とヒューマン・コンピュータインタラクション(HCI)の両コミュニティからのHITL NLP作業について,その短さと刺激的な歴史を強調し,タスク,目標,ヒューマンインタラクション,フィードバック学習方法に焦点を当てた最近のフレームワークを網羅的に要約する。
最後に,人間のフィードバックをNLP開発ループに統合するための今後の方向性について論じる。
関連論文リスト
- Mapping out the Space of Human Feedback for Reinforcement Learning: A Conceptual Framework [13.949126295663328]
我々は、対話型学習シナリオにおける人間のフィードバックの共通理解を開発することにより、機械学習と人間とコンピュータの相互作用のギャップを埋める。
そこで我々は,9つの重要な次元に基づいて,人的フィードバックから報酬に基づく学習を行うためのフィードバックタイプ分類を導入した。
フィードバックを表現できる人間の能力と、フィードバックから学習するエージェントの能力に影響を及ぼす、人間のフィードバックの質の指標を7つ同定する。
論文 参考訳(メタデータ) (2024-11-18T17:40:42Z) - The Future of Learning in the Age of Generative AI: Automated Question Generation and Assessment with Large Language Models [0.0]
大規模言語モデル(LLM)と生成AIは、自然言語処理(NLP)に革命をもたらした。
本章では,自動質問生成と回答評価におけるLLMの変容の可能性について考察する。
論文 参考訳(メタデータ) (2024-10-12T15:54:53Z) - Can Machines Resonate with Humans? Evaluating the Emotional and Empathic Comprehension of LMs [31.556095945149583]
言語モデルにおける共感理解を改善するためのいくつかの戦略を提案する。
アノテータ間の低い合意は、トレーニングを妨げ、タスクの主観的な性質を強調します。
これを研究するために,我々はウルドゥー語でストーリーペアを注意深く収集し,アノテータ間の共感を解釈する主観性は文化的背景とは無関係であることがわかった。
論文 参考訳(メタデータ) (2024-06-17T06:22:20Z) - Survey of Natural Language Processing for Education: Taxonomy, Systematic Review, and Future Trends [26.90343340881045]
我々は、NLPの最近の進歩を、教育領域に関連する問題の解決に焦点をあててレビューする。
教育領域におけるNLPの分類について述べるとともに,質問応答,質問構築,自動評価,誤り訂正など,典型的なNLPの応用に注目した。
今後の研究には、教育領域におけるデータセットの増加、LCMの制御可能な利用、難易度制御の介入、解釈可能な教育的NLP、適応学習の方法、教育統合システムなど、有望な6つの方向性をまとめる。
論文 参考訳(メタデータ) (2024-01-15T07:48:42Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Bridging the Gap: A Survey on Integrating (Human) Feedback for Natural
Language Generation [68.9440575276396]
この調査は、人間のフィードバックを利用して自然言語生成を改善した最近の研究の概要を提供することを目的としている。
まず、フィードバックの形式化を包括的に導入し、この形式化に続いて既存の分類学研究を特定・整理する。
第二に、フィードバックを形式や目的によってどのように記述するかを議論し、フィードバック(トレーニングやデコード)を直接使用したり、フィードバックモデルをトレーニングしたりするための2つのアプローチについて取り上げる。
第3に、AIフィードバックの生まれたばかりの分野の概要を紹介します。これは、大きな言語モデルを利用して、一連の原則に基づいて判断し、必要最小限にします。
論文 参考訳(メタデータ) (2023-05-01T17:36:06Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z) - Meta Learning for Natural Language Processing: A Survey [88.58260839196019]
ディープラーニングは自然言語処理(NLP)分野において主要な技術である。
ディープラーニングには多くのラベル付きデータが必要です。
メタ学習は、より良いアルゴリズムを学ぶためのアプローチを研究する機械学習の分野である。
論文 参考訳(メタデータ) (2022-05-03T13:58:38Z) - Ensuring the Inclusive Use of Natural Language Processing in the Global
Response to COVID-19 [58.720142291102135]
低リソース言語を網羅することで、現在のNLPアプローチと将来のNLPアプローチをより包括的に行う方法について議論する。
我々は,NLPの正の社会的影響を最大化することに関心のある研究者のために,いくつかの今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-08-11T12:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。