論文の概要: Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph
- arxiv url: http://arxiv.org/abs/2308.13534v1
- Date: Sun, 13 Aug 2023 22:47:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-03 21:43:13.863036
- Title: Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph
- Title(参考訳): 会話型AIにおける信頼の構築: LLMと知識グラフを用いた説明可能なプライバシ対応システムのための包括的レビューとソリューションアーキテクチャ
- Authors: Ahtsham Zafar, Venkatesh Balavadhani Parthasarathy, Chan Le Van, Saad
Shahid, Aafaq Iqbal khan, Arsalan Shahid
- Abstract要約: 我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
- 参考スコア(独自算出の注目度): 0.33554367023486936
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conversational AI systems have emerged as key enablers of human-like
interactions across diverse sectors. Nevertheless, the balance between
linguistic nuance and factual accuracy has proven elusive. In this paper, we
first introduce LLMXplorer, a comprehensive tool that provides an in-depth
review of over 150 Large Language Models (LLMs), elucidating their myriad
implications ranging from social and ethical to regulatory, as well as their
applicability across industries. Building on this foundation, we propose a
novel functional architecture that seamlessly integrates the structured
dynamics of Knowledge Graphs with the linguistic capabilities of LLMs.
Validated using real-world AI news data, our architecture adeptly blends
linguistic sophistication with factual rigour and further strengthens data
security through Role-Based Access Control. This research provides insights
into the evolving landscape of conversational AI, emphasizing the imperative
for systems that are efficient, transparent, and trustworthy.
- Abstract(参考訳): 会話型AIシステムは、多分野にわたる人間のような対話の鍵となる手段として登場した。
それにもかかわらず、言語のニュアンスと事実の正確さのバランスは明らかである。
本稿ではまず,150以上の大規模言語モデル(llm)の詳細なレビューを行い,社会的・倫理的・規制的・産業横断的適用性など幅広い影響を明らかにする総合的ツールであるllmxplorerについて紹介する。
この基盤に基づいて,知識グラフの構造化ダイナミクスとllmの言語能力とをシームレスに統合した,新しい機能的アーキテクチャを提案する。
我々のアーキテクチャは、実世界のAIニュースデータを用いて検証され、言語的な洗練と事実の厳密さを十分にブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化します。
この研究は、会話型AIの進化する展望を洞察し、効率的で透明で信頼に値するシステムに対する命令を強調します。
関連論文リスト
- Combining Knowledge Graphs and Large Language Models [4.991122366385628]
大規模言語モデル(LLM)は、言語理解と生成において驚くべき結果を示す。
幻覚やドメイン固有の知識の欠如など、いくつかの欠点がある。
これらの問題は知識グラフ(KG)を組み込むことで効果的に緩和することができる。
本研究は、KGを用いたLLM、LLMベースのKG、LLM-KGハイブリッドアプローチに関する28の論文の概要をまとめた。
論文 参考訳(メタデータ) (2024-07-09T05:42:53Z) - Multi-step Inference over Unstructured Data [2.169874047093392]
医療、法律、金融などの分野における高い意思決定タスクは、精度、包括性、論理的一貫性のレベルを必要とする。
これらの問題に対処するための,ニューロシンボリックAIプラットフォームを開発した。
このプラットフォームは、知識抽出とアライメントのための微調整LDMと、堅牢なシンボリック推論エンジンを統合している。
論文 参考訳(メタデータ) (2024-06-26T00:00:45Z) - Are Large Language Models the New Interface for Data Pipelines? [3.5021689991926377]
言語モデル(Language Model)とは、人間のコミュニケーションを理解し、生成するために設計された様々な種類のモデルを含む用語である。
大規模言語モデル (LLM) は、人間のような流布やコヒーレンスでテキストを処理する能力によって注目されている。
論文 参考訳(メタデータ) (2024-06-06T08:10:32Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - Towards a Responsible AI Metrics Catalogue: A Collection of Metrics for
AI Accountability [28.67753149592534]
本研究は,包括的メトリクスカタログへの取り組みを導入することで,説明責任のギャップを埋めるものである。
我々のカタログは、手続き的整合性を支えるプロセスメトリクス、必要なツールやフレームワークを提供するリソースメトリクス、AIシステムのアウトプットを反映する製品メトリクスを記述しています。
論文 参考訳(メタデータ) (2023-11-22T04:43:16Z) - Detecting Any Human-Object Interaction Relationship: Universal HOI
Detector with Spatial Prompt Learning on Foundation Models [55.20626448358655]
本研究では,ビジョン・ランゲージ(VL)基礎モデルと大規模言語モデル(LLM)を用いて,オープンワールド環境におけるユニバーサルインタラクション認識について検討する。
我々の設計にはHO Prompt-guided Decoder (HOPD) が含まれており、基礎モデルにおける高次関係表現と画像内の様々なHOペアとの結合を容易にする。
オープンカテゴリの対話認識では,対話文と解釈文の2つのタイプがサポートされている。
論文 参考訳(メタデータ) (2023-11-07T08:27:32Z) - Rethinking the Evaluating Framework for Natural Language Understanding
in AI Systems: Language Acquisition as a Core for Future Metrics [0.0]
人工知能(AI)の急成長分野において、自然言語処理(NLP)における大規模言語モデル(LLM)の先例のない進歩は、従来の機械学習のメトリクスのアプローチ全体を再考する機会を提供する。
本稿では,確立されたチューリングテストから,言語習得を基盤とした全包含フレームワークへのパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2023-09-21T11:34:52Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - Knowledge Graph Augmented Network Towards Multiview Representation
Learning for Aspect-based Sentiment Analysis [96.53859361560505]
本稿では,知識グラフ拡張ネットワーク(KGAN)を提案する。
KGANは感情の特徴表現を、文脈、構文、知識に基づく複数の視点から捉えている。
3つの人気のあるABSAベンチマークの実験は、我々のKGANの有効性と堅牢性を示している。
論文 参考訳(メタデータ) (2022-01-13T08:25:53Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。