論文の概要: Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models
- arxiv url: http://arxiv.org/abs/2306.01773v1
- Date: Mon, 29 May 2023 09:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 13:45:20.816411
- Title: Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models
- Title(参考訳): 輝かしいけど空いている?
大規模言語モデルの時代における意味的資本
- Authors: Luca Nannini
- Abstract要約: 大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large Language Models (LLMs) have emerged as transformative forces in the
realm of natural language processing, wielding the power to generate human-like
text. However, despite their potential for content creation, they carry the
risk of eroding our Semantic Capital (SC) - the collective knowledge within our
digital ecosystem - thereby posing diverse social epistemic challenges. This
paper explores the evolution, capabilities, and limitations of these models,
while highlighting ethical concerns they raise. The study contribution is
two-fold: first, it is acknowledged that, withstanding the challenges of
tracking and controlling LLM impacts, it is necessary to reconsider our
interaction with these AI technologies and the narratives that form public
perception of them. It is argued that before achieving this goal, it is
essential to confront a potential deontological tipping point in an increasing
AI-driven infosphere. This goes beyond just adhering to AI ethical norms or
regulations and requires understanding the spectrum of social epistemic risks
LLMs might bring to our collective SC. Secondly, building on Luciano Floridi's
taxonomy for SC risks, those are mapped within the functionality and
constraints of LLMs. By this outlook, we aim to protect and enrich our SC while
fostering a collaborative environment between humans and AI that augments human
intelligence rather than replacing it.
- Abstract(参考訳): 大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
しかし、コンテンツ作成の可能性にもかかわらず、デジタルエコシステムにおける集合的知識であるセマンティックキャピタル(sc)を損なうリスクを負い、多様な社会的認識論的課題を提起する。
本稿では,これらのモデルの進化,能力,限界について考察し,それらがもたらす倫理的懸念を強調した。
まず、LSMの影響の追跡と制御という課題にもかかわらず、これらのAI技術とのインタラクションと、それらに対する大衆の認識を形成する物語を再考する必要があると認識されている。
この目標を達成する前に、ai駆動のインフォスフィアの潜在的なデオントロジー的転換点に直面することが不可欠であると主張する。
これはAIの倫理的規範や規則に固執するだけでなく、LSMが我々の集団SCにもたらす可能性のある社会的疫学リスクのスペクトルを理解する必要がある。
第2に、ルチアーノ・フロリジのSCリスク分類に基づいて、これらはLLMの機能と制約にマッピングされる。
この観点から、私たちは、人間とAIの協調的な環境を育みながら、SCを置き換えるのではなく、人間の知性を高めることを目指しています。
関連論文リスト
- Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [54.247747237176625]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach [45.74830585715129]
我々は,大規模言語モデル(LLM)における社会貢献のリスクに対処するために,社会透明性(ST)フレームワークの拡張を提案する。
LLMは、デザイナーの意図とユーザの社会的属性に対する認識のミスマッチを引き起こし、感情的な操作や危険な行動を促進するリスクを負う。
設計者やユーザによるLSMに割り当てられた特定の社会的属性を明らかにするため,第5の"W-question"によるSTフレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2024-03-26T17:02:42Z) - Should We Fear Large Language Models? A Structural Analysis of the Human
Reasoning System for Elucidating LLM Capabilities and Risks Through the Lens
of Heidegger's Philosophy [0.0]
本研究では,Large Language Models(LLM)の能力とリスクについて検討する。
LLM内の単語関係の統計的パターンと、Martin Heidegger氏の概念である"ready-to-hand"と"present-at-hand"の間には、革新的な並列性がある。
以上の結果から, LLMには直接的説明推論と擬似論理推論の能力があるが, 真理的推論に乏しく, 創造的推論能力がないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-05T19:40:53Z) - Fortifying Ethical Boundaries in AI: Advanced Strategies for Enhancing
Security in Large Language Models [3.9490749767170636]
大規模言語モデル(LLM)は、テキスト生成、翻訳、質問応答タスクに革命をもたらした。
広く使われているにもかかわらず、LLMはモデルに不適切な反応を強いられる場合の倫理的ジレンマのような課題を提示している。
本稿では,1)ユーザ入力からセンシティブな語彙をフィルタリングして非倫理的応答を防ぐ,2)"プライソンブレイク"シナリオにつながる可能性のあるインタラクションを停止するロールプレイングを検出する,4)マルチモデル大規模言語モデル(MLLM)のような様々なLLM派生語に拡張する,という課題に対処する。
論文 参考訳(メタデータ) (2024-01-27T08:09:33Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - BC4LLM: Trusted Artificial Intelligence When Blockchain Meets Large
Language Models [6.867309936992639]
大規模言語モデル(LLM)は、AIGC(AIGC)という形で人々にサービスを提供する。
AIGC学習データの信頼性と信頼性を保証することは困難である。
分散AIトレーニングには、プライバシ開示の危険性も隠されている。
論文 参考訳(メタデータ) (2023-10-10T03:18:26Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Amplifying Limitations, Harms and Risks of Large Language Models [1.0152838128195467]
この記事は、人工知能に関する誇大広告の急増に対抗すべく、小さなジェスチャーとして紹介する。
また、この分野の外部の人たちが、AI技術の限界についてより深く知るのに役立つかもしれない。
論文 参考訳(メタデータ) (2023-07-06T11:53:45Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。