論文の概要: Sparks: Inspiration for Science Writing using Language Models
- arxiv url: http://arxiv.org/abs/2110.07640v1
- Date: Thu, 14 Oct 2021 18:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 10:04:27.992267
- Title: Sparks: Inspiration for Science Writing using Language Models
- Title(参考訳): sparks: 言語モデルを用いた科学執筆のためのインスピレーション
- Authors: Katy Ilonka Gero, Vivian Liu and Lydia B. Chilton
- Abstract要約: 本稿では,著者を刺激する科学的概念に関連する「スパーク」を生成するシステムを提案する。
私たちのスパークは、競争力のある言語モデルベースラインよりも一貫性があり、多様であることに気付きました。
- 参考スコア(独自算出の注目度): 11.38723572165938
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale language models are rapidly improving, performing well on a wide
variety of tasks with little to no customization. In this work we investigate
how language models can support science writing, a challenging writing task
that is both open-ended and highly constrained. We present a system for
generating "sparks", sentences related to a scientific concept intended to
inspire writers. We find that our sparks are more coherent and diverse than a
competitive language model baseline, and approach a human-created gold
standard. In a study with 13 PhD students writing on topics of their own
selection, we find three main use cases of sparks: aiding with crafting
detailed sentences, providing interesting angles to engage readers, and
demonstrating common reader perspectives. We also report on the various reasons
sparks were considered unhelpful, and discuss how we might improve language
models as writing support tools.
- Abstract(参考訳): 大規模な言語モデルは急速に改善され、ほとんどカスタマイズすることなく、さまざまなタスクでうまく機能しています。
本研究は,言語モデルが科学記述をどのようにサポートするか,すなわち,オープン・エンドかつ制約の強い文章作成タスクについて検討する。
本稿では,著者を刺激する科学的概念に関連する「スパーク」を生成するシステムを提案する。
当社のsparkは、競争力のある言語モデルのベースラインよりも一貫性があり、多様性が高いことが分かりました。
13人のPhD学生が自身の選択のトピックについて書いている研究では、詳細な文章の作成を支援すること、読者をエンゲージする興味深い角度を提供すること、一般的な読者の視点を示すことの3つの主要なユースケースが見つかった。
また,スパークが不便であると考えられるさまざまな理由について報告し,サポートツールの記述として言語モデルを改善する方法について論じる。
関連論文リスト
- Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - Neural Conversation Models and How to Rein Them in: A Survey of Failures
and Fixes [17.489075240435348]
最近の条件付き言語モデルは、しばしば流動的な方法で、あらゆる種類のテキストソースを継続することができる。
言語の観点から言えば、会話への貢献は高い。
最近のアプローチでは、基礎となる言語モデルを様々な介入ポイントでテームしようと試みている。
論文 参考訳(メタデータ) (2023-08-11T12:07:45Z) - Multilingual Multi-Figurative Language Detection [14.799109368073548]
比喩的言語理解は多言語環境では 非常に過小評価されています
我々は,多言語多言語言語モデリングを導入し,文レベル図形言語検出のためのベンチマークを提供する。
テンプレートに基づく即時学習に基づく図形言語検出のためのフレームワークを開発する。
論文 参考訳(メタデータ) (2023-05-31T18:52:41Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Studying writer-suggestion interaction: A qualitative study to
understand writer interaction with aligned/misaligned next-phrase suggestion [3.068049762564199]
著者が次回の提案とどのように相互作用するかを理解するための探索的質的研究を提案する。
我々はアマチュア作家にそれぞれ2本の映画レビューを書くよう依頼された研究を行った。
著者は、様々な複雑な方法で、次のフレーズの提案と対話することがわかった。
論文 参考訳(メタデータ) (2022-08-01T06:49:07Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - CoAuthor: Designing a Human-AI Collaborative Writing Dataset for
Exploring Language Model Capabilities [92.79451009324268]
我々は,GPT-3の創造的かつ議論的な記述を支援する能力を明らかにするために設計されたデータセットであるCoAuthorを提案する。
我々は、CoAuthorがGPT-3の言語、アイデア、コラボレーション機能に関する問題に対処できることを実証した。
インタラクション設計に関して,この作業がLMの約束や落とし穴に関して,より原則化された議論を促進する可能性について論じる。
論文 参考訳(メタデータ) (2022-01-18T07:51:57Z) - The Impact of Multiple Parallel Phrase Suggestions on Email Input and
Composition Behaviour of Native and Non-Native English Writers [15.621144215664767]
ニューラルネットワークモデル(GPT-2)を用いたテキストエディタのプロトタイプを構築し,30名による事前学習を行った。
オンライン調査(N=156)では、4つの条件(0/1/3/6並列提案)で電子メールを作成した。
その結果,(1)複数のフレーズを提案する場合のアイデアのメリット,および効率のコスト,(2)非ネイティブ話者がより多くの提案から恩恵を受けること,(3)行動パターンに関するさらなる洞察が得られた。
論文 参考訳(メタデータ) (2021-01-22T15:32:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。