論文の概要: VidyaRANG: Conversational Learning Based Platform powered by Large Language Model
- arxiv url: http://arxiv.org/abs/2407.16209v1
- Date: Tue, 23 Jul 2024 06:30:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-24 18:25:52.809418
- Title: VidyaRANG: Conversational Learning Based Platform powered by Large Language Model
- Title(参考訳): VidyaRANG:大規模言語モデルを用いた対話型学習プラットフォーム
- Authors: Chitranshu Harbola, Anupam Purwar,
- Abstract要約: 大規模言語モデルは機密情報から派生した質問に対する回答の提供に失敗する。
ここでは知識強化検索技術が特に有用になる。
提案するプラットフォームは,異なる分野から学習者のニーズを満たすように設計されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing authoritative information tailored to a student's specific doubt is a hurdle in this era where search engines return an overwhelming number of article links. Large Language Models such as GPTs fail to provide answers to questions that were derived from sensitive confidential information. This information which is specific to some organisations is not available to LLMs due to privacy constraints. This is where knowledge-augmented retrieval techniques become particularly useful. The proposed platform is designed to cater to the needs of learners from divergent fields. Today, the most common format of learning is video and books, which our proposed platform allows learners to interact and ask questions. This increases learners' focus time exponentially by restricting access to pertinent content and, at the same time allowing personalized access and freedom to gain in-depth knowledge. Instructor's roles and responsibilities are significantly simplified allowing them to train a larger audience. To preserve privacy, instructors can grant course access to specific individuals, enabling personalized conversation on the provided content. This work includes an extensive spectrum of software development and product management skills, which also circumscribe knowledge of cloud computing for running Large Language Models and maintaining the application. For Frontend development, which is responsible for user interaction and user experience, Streamlit and React framework have been utilized. To improve security and privacy, the server is routed to a domain with an SSL certificate, and all the API key/s are stored securely on an AWS EC2 instance, to enhance user experience, web connectivity to an Android Studio-based mobile app has been established, and in-process to publish the app on play store, thus addressing all major software engineering disciplines
- Abstract(参考訳): 学生の特定の疑念に合わせた権威情報を提供することは、検索エンジンが圧倒的な数の記事リンクを返却するこの時代のハードルである。
GPTのような大規模言語モデルでは、機密機密情報から派生した質問に対する回答が得られない。
一部の組織に特有のこの情報は、プライバシー上の制約のためにLLMでは利用できない。
ここでは知識強化検索技術が特に有用になる。
提案するプラットフォームは,異なる分野から学習者のニーズを満たすように設計されている。
今日、最も一般的な学習形式は、ビデオと書籍である。
これにより、関連するコンテンツへのアクセスを制限し、同時にパーソナライズされたアクセスと自由を深い知識で得ることによって、学習者の集中時間を指数関数的に増加させる。
インストラクタの役割と責任は大幅に単純化され、より大きなオーディエンスをトレーニングすることができる。
プライバシーを守るために、インストラクターは特定の個人にコースアクセスを許可し、提供されるコンテンツのパーソナライズされた会話を可能にする。
この作業には、大規模言語モデルを実行し、アプリケーションを維持するためのクラウドコンピューティングの知識を包含する、ソフトウェア開発と製品管理スキルの幅広い範囲が含まれている。
ユーザインタラクションとユーザエクスペリエンスを担当するフロントエンド開発では、StreamlitとReactフレームワークが使用されている。
セキュリティとプライバシを改善するため、サーバはSSL証明書を持つドメインにルーティングされ、すべてのAPIキー/sがAWS EC2インスタンスにセキュアに保存され、ユーザエクスペリエンスの向上、Android StudioベースのモバイルアプリへのWeb接続が確立され、プレイストアでアプリを公開するためのプロセスが内部で確立された。
関連論文リスト
- KnowledgeSG: Privacy-Preserving Synthetic Text Generation with Knowledge Distillation from Server [48.04903443425111]
大規模言語モデル (LLM) は、多くの当事者が自身のプライベートデータでLPMを微調整できるようにする。
置換のために合成データを利用するような既存のソリューションは、同時にパフォーマンスを改善し、プライバシを保存するのに苦労している。
我々は、合成データ品質を高め、プライバシを確保しつつモデル性能を向上させる新しいクライアントサーバフレームワークであるKnowledgeSGを提案する。
論文 参考訳(メタデータ) (2024-10-08T06:42:28Z) - Swarm Learning: A Survey of Concepts, Applications, and Trends [3.55026004901472]
ディープラーニングモデルは、中央サーバ上の大規模なデータセットに依存しているため、プライバシとセキュリティの懸念を高めている。
Federated Learning (FL)は、汎用的で大規模な機械学習フレームワークを構築するための新しいアプローチを導入した。
Swarm Learning (SL) は Hewlett Packard Enterprise (HPE) と共同で提案されている。
SLは、セキュアでスケーラブルでプライベートなデータ管理にブロックチェーン技術を活用する、分散機械学習フレームワークである。
論文 参考訳(メタデータ) (2024-05-01T14:59:24Z) - Integrating A.I. in Higher Education: Protocol for a Pilot Study with 'SAMCares: An Adaptive Learning Hub' [0.6990493129893112]
本研究は,「SAMCares」と呼ぶ革新的な研究仲間を紹介することを目的としている。
このシステムは、Large Language Model(LLM)とRetriever-Augmented Generation(RAG)を利用して、リアルタイム、コンテキスト認識、適応的な教育サポートを提供する。
論文 参考訳(メタデータ) (2024-05-01T05:39:07Z) - Knowledge-Augmented Large Language Models for Personalized Contextual
Query Suggestion [16.563311988191636]
我々は,Web上での検索と閲覧活動に基づいて,各ユーザを対象としたエンティティ中心の知識ストアを構築した。
この知識ストアは、公的な知識グラフ上の興味と知識のユーザ固有の集約予測のみを生成するため、軽量である。
論文 参考訳(メタデータ) (2023-11-10T01:18:47Z) - KnowledGPT: Enhancing Large Language Models with Retrieval and Storage
Access on Knowledge Bases [55.942342665806656]
KnowledGPTは、様々な知識ベースで大きな言語モデルをブリッジするための包括的なフレームワークである。
検索プロセスでは思考プロンプトプログラムを使用し,KBの検索言語をコード形式で生成する。
KnowledGPTは、個々のユーザ要求に合わせて、知識をパーソナライズされたKBに格納する機能を提供する。
論文 参考訳(メタデータ) (2023-08-17T13:07:00Z) - The Web Can Be Your Oyster for Improving Large Language Models [98.72358969495835]
大規模言語モデル(LLM)は、大量の世界の知識を符号化する。
我々はLLMを検索エンジンを用いて大規模ウェブで拡張することを検討する。
ウェブ上に拡張されたLLM UNIWEBを提案する。これは16の知識集約的なタスクに対して、統一されたテキスト・テキスト・フォーマットで訓練される。
論文 参考訳(メタデータ) (2023-05-18T14:20:32Z) - Augmented Large Language Models with Parametric Knowledge Guiding [72.71468058502228]
大規模言語モデル(LLM)は、言語理解と生成能力に優れた自然言語処理(NLP)を備えています。
それらのパフォーマンスは、関連するデータへの限られた露出のために専門的な知識を必要とするドメイン固有のタスクに最適であるかもしれない。
本稿では,LLMに関連知識にアクセスするための知識誘導モジュールを組み込んだ新しいPKGフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T15:05:16Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - An Overview of Privacy in Machine Learning [2.8935588665357077]
この文書は、機械学習とプライバシに関する関連する概念に関する背景情報を提供する。
本稿では,個人および/または機密情報漏洩に関連する広範囲な攻撃を網羅する,敵対的モデルと設定について論じる。
論文 参考訳(メタデータ) (2020-05-18T13:05:17Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。