論文の概要: Writing Assistants Should Model Social Factors of Language
- arxiv url: http://arxiv.org/abs/2303.16275v1
- Date: Tue, 28 Mar 2023 19:38:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 17:03:33.437310
- Title: Writing Assistants Should Model Social Factors of Language
- Title(参考訳): 翻訳アシスタントは言語の社会的要因をモデル化すべきである
- Authors: Vivek Kulkarni and Vipul Raheja
- Abstract要約: このサブ最適性能と採用の大きな理由は、言語の情報内容にのみ焦点をあてることである、と我々は主張する。
我々は、より賢く、より効果的で、真にパーソナライズされたライティングアシスタントを構築するための彼らの取り組みを提案する。
- 参考スコア(独自算出の注目度): 5.520605732206285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intelligent writing assistants powered by large language models (LLMs) are
more popular today than ever before, but their further widespread adoption is
precluded by sub-optimal performance. In this position paper, we argue that a
major reason for this sub-optimal performance and adoption is a singular focus
on the information content of language while ignoring its social aspects. We
analyze the different dimensions of these social factors in the context of
writing assistants and propose their incorporation into building smarter, more
effective, and truly personalized writing assistants that would enrich the user
experience and contribute to increased user adoption.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したインテリジェントな書き込みアシスタントは、これまで以上に人気があるが、その普及はサブ最適性能によって妨げられている。
本稿では,この部分最適性能と採用の大きな理由は,その社会的側面を無視しつつ,言語の情報内容にのみ焦点をあてることである,と論じる。
我々は,これらの社会的要因の異なる次元を分析し,より賢く,より効果的で,真にパーソナライズされたライティング・アシスタントの構築への統合を提案する。
関連論文リスト
- Retroformer: Retrospective Large Language Agents with Policy Gradient Optimization [103.70896967077294]
本稿では,レトロスペクティブモデルを学習することで,大規模言語エージェントを強化するための原則的枠組みを提案する。
提案するエージェントアーキテクチャは,事前学習した言語モデルを微調整するために,複数の環境やタスクにまたがる報酬から学習する。
様々なタスクの実験結果から、言語エージェントは時間とともに改善することが示された。
論文 参考訳(メタデータ) (2023-08-04T06:14:23Z) - When Large Language Models Meet Personalization: Perspectives of
Challenges and Opportunities [60.5609416496429]
大規模言語モデルの能力は劇的に改善されている。
このような大きな飛躍的なAI能力は、パーソナライゼーションの実施方法のパターンを変えるだろう。
大規模言語モデルを汎用インターフェースとして活用することにより、パーソナライズシステムはユーザ要求を計画にコンパイルすることができる。
論文 参考訳(メタデータ) (2023-07-31T02:48:56Z) - TalkUp: Paving the Way for Understanding Empowering Language [38.873632974397744]
この研究は言語学と社会心理学の文献から構築され、力のある言語を特徴付けるものを探究する。
われわれは、エンパワーメントのためにラベル付けされたRedditの投稿の新しいデータセットをクラウドソースした。
予備的な分析では、このデータセットが、エンパワーメントと非エンパワーメント言語をキャプチャする言語モデルをトレーニングするために使用できることを示している。
論文 参考訳(メタデータ) (2023-05-23T17:55:34Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - AI, write an essay for me: A large-scale comparison of human-written
versus ChatGPT-generated essays [66.36541161082856]
ChatGPTや同様の生成AIモデルは、何億人ものユーザーを惹きつけている。
本研究は,ChatGPTが生成した議論的学生エッセイと比較した。
論文 参考訳(メタデータ) (2023-04-24T12:58:28Z) - Toxicity in ChatGPT: Analyzing Persona-assigned Language Models [23.53559226972413]
大規模言語モデル(LLM)は驚くべき能力を示し、自然言語処理(NLP)コミュニティを超越した。
一般的な対話型LLMであるChatGPTの50万世代以上で毒性を系統的に評価した。
その結果,ChatGPTのシステムパラメータをペルソナに割り当てることで,世代間の毒性が著しく向上することが判明した。
論文 参考訳(メタデータ) (2023-04-11T16:53:54Z) - Unlocking the Potential of ChatGPT: A Comprehensive Exploration of its Applications, Advantages, Limitations, and Future Directions in Natural Language Processing [4.13365552362244]
ChatGPTはチャットボット、コンテンツ生成、言語翻訳、パーソナライズされたレコメンデーション、医療診断や治療など、多くの分野でうまく適用されてきた。
これらの応用におけるその成功は、人間のような応答を生成し、自然言語を理解し、異なる文脈に適応する能力に起因している。
この記事では、ChatGPTとその応用、利点、限界について概観する。
論文 参考訳(メタデータ) (2023-03-27T21:27:58Z) - LMSOC: An Approach for Socially Sensitive Pretraining [4.857837729560728]
本稿では,大規模言語モデルの学習表現に話者社会コンテキストを組み込むための,シンプルで効果的な手法を提案する。
提案手法はまず,まずグラフ表現学習アルゴリズムを用いて社会的文脈の密集表現を学習し,次にこれらの社会的文脈表現で事前学習する素数言語モデルを学習する。
論文 参考訳(メタデータ) (2021-10-20T00:10:37Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Semantic Role Labeling Guided Multi-turn Dialogue ReWriter [63.07073750355096]
意味的役割ラベル付け(SRL)を用いて、誰が誰に何をしたかのコアセマンティック情報を強調することを提案する。
実験の結果、この情報は従来の最先端システムよりも優れていたRoBERTaベースのモデルを大幅に改善することが示された。
論文 参考訳(メタデータ) (2020-10-03T19:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。