論文の概要: BC4LLM: Trusted Artificial Intelligence When Blockchain Meets Large
Language Models
- arxiv url: http://arxiv.org/abs/2310.06278v1
- Date: Tue, 10 Oct 2023 03:18:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-11 20:45:24.258033
- Title: BC4LLM: Trusted Artificial Intelligence When Blockchain Meets Large
Language Models
- Title(参考訳): bc4llm: ブロックチェーンが大きな言語モデルに出会うとき、信頼できる人工知能
- Authors: Haoxiang Luo, Jian Luo, Athanasios V. Vasilakos
- Abstract要約: 大規模言語モデル(LLM)は、AIGC(AIGC)という形で人々にサービスを提供する。
AIGC学習データの信頼性と信頼性を保証することは困難である。
分散AIトレーニングには、プライバシ開示の危険性も隠されている。
- 参考スコア(独自算出の注目度): 6.867309936992639
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In recent years, artificial intelligence (AI) and machine learning (ML) are
reshaping society's production methods and productivity, and also changing the
paradigm of scientific research. Among them, the AI language model represented
by ChatGPT has made great progress. Such large language models (LLMs) serve
people in the form of AI-generated content (AIGC) and are widely used in
consulting, healthcare, and education. However, it is difficult to guarantee
the authenticity and reliability of AIGC learning data. In addition, there are
also hidden dangers of privacy disclosure in distributed AI training. Moreover,
the content generated by LLMs is difficult to identify and trace, and it is
difficult to cross-platform mutual recognition. The above information security
issues in the coming era of AI powered by LLMs will be infinitely amplified and
affect everyone's life. Therefore, we consider empowering LLMs using blockchain
technology with superior security features to propose a vision for trusted AI.
This paper mainly introduces the motivation and technical route of blockchain
for LLM (BC4LLM), including reliable learning corpus, secure training process,
and identifiable generated content. Meanwhile, this paper also reviews the
potential applications and future challenges, especially in the frontier
communication networks field, including network resource allocation, dynamic
spectrum sharing, and semantic communication. Based on the above work combined
and the prospect of blockchain and LLMs, it is expected to help the early
realization of trusted AI and provide guidance for the academic community.
- Abstract(参考訳): 近年、人工知能(AI)と機械学習(ML)は社会の生産方法と生産性を変え、科学研究のパラダイムを変えつつある。
中でもChatGPTで表現されるAI言語モデルは大きな進歩を遂げている。
このような大きな言語モデル(LLM)はAIGC(AIGC)という形で人々に提供され、コンサルティング、医療、教育に広く利用されている。
しかし,AIGC学習データの信頼性と信頼性を保証することは困難である。
さらに、分散AIトレーニングには、プライバシー開示の危険性も隠されている。
さらに,LLMが生成するコンテンツは識別・追跡が困難であり,クロスプラットフォームの相互認識は困難である。
LLMを動力とするAIの今後における上記の情報セキュリティ問題は、無限に増幅され、すべての人の生活に影響を与える。
そこで我々は,優れたセキュリティ機能を備えたブロックチェーン技術を用いて,信頼性の高いaiのためのビジョンを提案する。
本稿では,信頼性の高い学習コーパス,セキュアなトレーニングプロセス,識別可能な生成コンテンツを含む,llm(bc4llm)のためのブロックチェーンの動機と技術的経路について紹介する。
本稿では,特にネットワーク資源割当,ダイナミックスペクトル共有,セマンティックコミュニケーションなど,フロンティア通信ネットワーク分野における潜在的な応用と今後の課題について概説する。
上記の作業とブロックチェーンとLLMの展望に基づいて、信頼されたAIの早期実現と学術コミュニティへのガイダンスを提供することが期待されている。
関連論文リスト
- OML: Open, Monetizable, and Loyal AI [39.63122342758896]
OML は Open, Monetizable, Loyal AI の略である。
OMLはAI開発を民主化するためのアプローチである。
私たちの研究の重要なイノベーションは、新たな科学分野であるAIネイティブ暗号の導入です。
論文 参考訳(メタデータ) (2024-11-01T18:46:03Z) - Large Language Models for Base Station Siting: Intelligent Deployment based on Prompt or Agent [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
このアプローチは、人間の経験と知識をこれらの洗練されたLLMに注入するために、巧妙なプロンプトの戦略的利用を必要とする。
この統合は、サービスとしての人工知能(AI)と、より容易なAIの将来のパラダイムを表している。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Federated TrustChain: Blockchain-Enhanced LLM Training and Unlearning [22.33179965773829]
大規模言語モデル(LLM)のためのブロックチェーンベースの新しいフェデレーション学習フレームワークを提案する。
我々のフレームワークはブロックチェーン技術を活用して、各モデルのコントリビューションの改ざん防止記録を作成し、フェデレートされた学習メカニズムをシームレスに統合する革新的なアンラーニング機能を導入しています。
論文 参考訳(メタデータ) (2024-06-06T13:44:44Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap [46.98582021477066]
強力な大規模言語モデル(LLM)の台頭は、イノベーションの絶大な機会をもたらすだけでなく、個人や社会全体のリスクを悪化させます。
我々は LLM と LLM を注入したアプリケーションの開発とデプロイを責任を持って行うための重要な瞬間に到達した。
LLMの透明性を提供するための新しいアプローチを追求することが最重要である。
論文 参考訳(メタデータ) (2023-06-02T22:51:26Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - APPFLChain: A Privacy Protection Distributed Artificial-Intelligence
Architecture Based on Federated Learning and Consortium Blockchain [6.054775780656853]
APPFLChainと呼ばれる新しいシステムアーキテクチャを提案する。
これはHyperledger Fabricベースのブロックチェーンとフェデレーション学習パラダイムの統合アーキテクチャである。
我々の新しいシステムは、機密性の高い個人情報をサーバに共有する必要がないため、高いセキュリティとプライバシを維持することができる。
論文 参考訳(メタデータ) (2022-06-26T05:30:07Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。