論文の概要: Large Language Models Humanize Technology
- arxiv url: http://arxiv.org/abs/2305.05576v1
- Date: Tue, 9 May 2023 16:05:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 12:11:13.645669
- Title: Large Language Models Humanize Technology
- Title(参考訳): 大規模言語モデルと人間化技術
- Authors: Pratyush Kumar
- Abstract要約: 大規模言語モデル(LLM)は、ここ数ヶ月、数週間で急速に進歩している。
これは、これらのモデルを人的価値と整合させること、労働市場への影響、そして規制の必要性に対する懸念を引き起こした。
LLMは、従来の技術よりも、より効果的にテクノロジーを人為化する創発的な能力を示すと我々は主張する。
- 参考スコア(独自算出の注目度): 6.127963013089406
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have made rapid progress in recent months and
weeks, garnering significant public attention. This has sparked concerns about
aligning these models with human values, their impact on labor markets, and the
potential need for regulation in further research and development. However, the
discourse often lacks a focus on the imperative to widely diffuse the societal
benefits of LLMs. To qualify this societal benefit, we assert that LLMs exhibit
emergent abilities to humanize technology more effectively than previous
technologies, and for people across language, occupation, and accessibility
divides. We argue that they do so by addressing three mechanizing bottlenecks
in today's computing technologies: creating diverse and accessible content,
learning complex digital tools, and personalizing machine learning algorithms.
We adopt a case-based approach and illustrate each bottleneck with two examples
where current technology imposes bottlenecks that LLMs demonstrate the ability
to address. Given this opportunity to humanize technology widely, we advocate
for more widespread understanding of LLMs, tools and methods to simplify use of
LLMs, and cross-cutting institutional capacity.
- Abstract(参考訳): 大規模言語モデル(LLM)はここ数ヶ月、数週間で急速に進歩し、大衆の注目を集めている。
このことが、これらのモデルを人的価値と整合させること、労働市場への影響、そしてさらなる研究開発における規制の必要性に対する懸念を引き起こした。
しかし、この言説は LLM の社会的利益を広く拡散させる命令に焦点をあてていないことが多い。
この社会的利益を評価するために、llmは、以前の技術よりも効果的にテクノロジーを人間化するための創発的な能力を示し、言語、職業、およびアクセシビリティの分断をまたぐ人々に対して有益であると主張する。
私たちは、今日のコンピューティング技術における3つのボトルネックに対処し、多様でアクセスしやすいコンテンツを作成し、複雑なデジタルツールを学習し、機械学習アルゴリズムをパーソナライズする、と論じています。
ケースベースのアプローチを採用し、それぞれのボトルネックを、LLMが対処する能力を示すボトルネックを現在の技術が課している2つの例で示す。
テクノロジーを広く人間化するこの機会を踏まえ、我々は、LLMのより広範な理解、LLMの使用を簡素化するためのツールや方法、施設間容量の横断的理解を提唱する。
関連論文リスト
- Large Language Models as Instruments of Power: New Regimes of Autonomous Manipulation and Control [0.0]
大規模言語モデル(LLM)は様々な修辞スタイルを再現し、幅広い感情を表現したテキストを生成する。
我々は,LSMの迅速かつ大半非規制導入によって可能となった,過小評価された社会的危害について考察する。
論文 参考訳(メタデータ) (2024-05-06T19:52:57Z) - LLeMpower: Understanding Disparities in the Control and Access of Large Language Models [0.6749750044497731]
大きな言語モデル(LLM)は新しい機会を生み出すために人間のスキルを増強する強力な技術である。
LLMは、訓練とサービスのために、かなりの計算資源とエネルギーを必要とする。
管理とアクセスの不平等は、少数の企業の所有と権限の集中につながった。
論文 参考訳(メタデータ) (2024-04-14T20:49:53Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Large Language Models for Robotics: A Survey [40.76581696885846]
大規模言語モデル(LLM)は自然言語の処理と生成能力を有しており、ロボットとの効率的な対話と協調を促進する。
本レビューは,ロボット制御,知覚,意思決定,経路計画といった重要な領域に対する,ロボット工学におけるLLMの応用と貢献を要約することを目的としている。
論文 参考訳(メタデータ) (2023-11-13T10:46:35Z) - Large Language Models for Telecom: Forthcoming Impact on the Industry [13.456882619578707]
汎用的な言語理解と生成を実現するAI駆動型モデルであるLarge Language Models (LLMs)が、トランスフォーメーション・フォースとして登場した。
LLMの内部動作を掘り下げて、現在の機能と制限に関する洞察を提供しています。
通信分野におけるLCMの活用という特徴的課題に対処する,本質的な研究の方向性を明らかにする。
論文 参考訳(メタデータ) (2023-08-11T08:41:00Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。