論文の概要: Mapping Trustworthiness in Large Language Models: A Bibliometric Analysis Bridging Theory to Practice
- arxiv url: http://arxiv.org/abs/2503.04785v3
- Date: Sun, 04 May 2025 23:37:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 12:43:31.976405
- Title: Mapping Trustworthiness in Large Language Models: A Bibliometric Analysis Bridging Theory to Practice
- Title(参考訳): 大規模言語モデルにおける信頼性のマッピング--文献分析ブリッジング理論を実践へ
- Authors: José Siqueira de Cerqueira, Kai-Kristian Kemell, Rebekah Rousi, Nannan Xi, Juho Hamari, Pekka Abrahamsson,
- Abstract要約: 本研究は, 研究動向, 信頼性の定義, 実用技術を分析し, 理論的議論と実践的実践のギャップを埋めることを目的としている。
私たちは、透明性、説明可能性、信頼性を最も一般的な側面として、信頼と信頼の18の異なる定義を特定しました。
LLMの信頼性を高めるための20の戦略を特定し,精細調整・検索強化世代(RAG)が最も顕著であった。
- 参考スコア(独自算出の注目度): 11.251046343609078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of Large Language Models (LLMs) has raised significant trustworthiness and ethical concerns. Despite the widespread adoption of LLMs across domains, there is still no clear consensus on how to define and operationalise trustworthiness. This study aims to bridge the gap between theoretical discussion and practical implementation by analysing research trends, definitions of trustworthiness, and practical techniques. We conducted a bibliometric mapping analysis of 2,006 publications from Web of Science (2019-2025) using the Bibliometrix, and manually reviewed 68 papers. We found a shift from traditional AI ethics discussion to LLM trustworthiness frameworks. We identified 18 different definitions of trust/trustworthiness, with transparency, explainability and reliability emerging as the most common dimensions. We identified 20 strategies to enhance LLM trustworthiness, with fine-tuning and retrieval-augmented generation (RAG) being the most prominent. Most of the strategies are developer-driven and applied during the post-training phase. Several authors propose fragmented terminologies rather than unified frameworks, leading to the risks of "ethics washing," where ethical discourse is adopted without a genuine regulatory commitment. Our findings highlight: persistent gaps between theoretical taxonomies and practical implementation, the crucial role of the developer in operationalising trust, and call for standardised frameworks and stronger regulatory measures to enable trustworthy and ethical deployment of LLMs.
- Abstract(参考訳): LLM(Large Language Models)の急速な普及は、信頼性と倫理的懸念を引き起こしている。
ドメイン間でLLMが広く採用されているにもかかわらず、信頼性の定義と運用方法に関して、まだ明確なコンセンサスがない。
本研究は, 研究動向, 信頼性の定義, 実用技術を分析し, 理論的議論と実践的実践のギャップを埋めることを目的としている。
Bibliometrix を用いた Web of Science (2019-2025) の2,006 件の文献地図解析を行い,68 件の論文を手作業でレビューした。
従来のAI倫理に関する議論から、LLMの信頼性フレームワークへの移行が分かりました。
私たちは、透明性、説明可能性、信頼性を最も一般的な側面として、信頼と信頼の18の異なる定義を特定しました。
LLMの信頼性を高めるための20の戦略を特定し,精細調整・検索強化世代(RAG)が最も顕著であった。
ほとんどの戦略は開発者主導で、トレーニング後のフェーズで適用されます。
いくつかの著者は、統合された枠組みではなく断片化された用語を提案し、真の規制のコミットメントなしに倫理的言説が採用される「倫理的洗浄」のリスクを招いた。
本研究は, 理論的分類学と実践的実装の相違, 信頼性の運用における開発者の重要な役割, LLMの信頼性と倫理的展開を可能にするための標準化された枠組みとより強力な規制措置の確立を訴えるものである。
関連論文リスト
- Mapping the Trust Terrain: LLMs in Software Engineering -- Insights and Perspectives [25.27634711529676]
大規模言語モデル(LLM)の応用は、様々なソフトウェア工学(SE)タスクのための業界や学術分野で急速に成長しています。
これらのモデルがクリティカルなプロセスにとってより不可欠なものになると、信頼性と信頼性が不可欠になります。
SE における LLM の信頼関連概念の展望は比較的不明瞭であり、信頼、不信、信頼といった概念は明確な概念化を欠いている。
論文 参考訳(メタデータ) (2025-03-18T00:49:43Z) - Large Language Models Penetration in Scholarly Writing and Peer Review [43.600778691549706]
学術的な視点と次元にまたがる大規模言語モデルの浸透を評価する。
本実験は,学術的プロセスにおけるLLMの役割の増大を明らかにするために,textttLLMetricaの有効性を実証した。
これらの知見は、学術的信頼性を維持するために、LLMの使用における透明性、説明責任、倫理的実践の必要性を強調した。
論文 参考訳(メタデータ) (2025-02-16T16:37:34Z) - Towards More Trustworthy and Interpretable LLMs for Code through Syntax-Grounded Explanations [48.07182711678573]
ASTrustは、モデル信頼度とプログラミング言語の構文構造の関係に基づく説明を生成する。
ASTからの構文構造のシーケンス, 熱マップ, グラフに基づく可視化を重畳した, モデル信頼度スコアを自動可視化する。
論文 参考訳(メタデータ) (2024-07-12T04:38:28Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - On the Hardness of Faithful Chain-of-Thought Reasoning in Large Language Models [25.029579061612456]
大規模言語モデル(LLM)は、医療などの重要な領域における現実世界のアプリケーションにますます採用されている。
これらのモデルによって生成されたCoT(Chain-of-Thought)推論が、その基盤となる振る舞いを忠実に捉えることが重要である。
論文 参考訳(メタデータ) (2024-06-15T13:16:44Z) - TrustScore: Reference-Free Evaluation of LLM Response Trustworthiness [58.721012475577716]
大規模言語モデル(LLM)は、様々な領域にまたがる印象的な能力を示しており、その実践的応用が急増している。
本稿では,行動整合性の概念に基づくフレームワークであるTrustScoreを紹介する。
論文 参考訳(メタデータ) (2024-02-19T21:12:14Z) - From Understanding to Utilization: A Survey on Explainability for Large
Language Models [27.295767173801426]
この調査は、Large Language Models (LLMs) における説明可能性の向上を示唆している。
主に、トレーニング済みの Transformer ベースの LLM に重点を置いています。
説明可能性の活用を考える際に、モデル編集、制御生成、モデル拡張に集中するいくつかの魅力的な方法を検討する。
論文 参考訳(メタデータ) (2024-01-23T16:09:53Z) - TrustLLM: Trustworthiness in Large Language Models [446.5640421311468]
本稿では,大規模言語モデル(LLM)における信頼度に関する総合的研究であるTrustLLMを紹介する。
まず、8つの異なる次元にまたがる信頼性の高いLCMの原則を提案する。
これらの原則に基づいて、真理性、安全性、公正性、堅牢性、プライバシ、機械倫理を含む6つの次元にわたるベンチマークを確立します。
論文 参考訳(メタデータ) (2024-01-10T22:07:21Z) - A Principled Framework for Knowledge-enhanced Large Language Model [58.1536118111993]
大規模言語モデル(LLM)は汎用性があるが、深い信頼性のある推論を必要とするタスクに悩まされることが多い。
本稿では、知識を効果的に固定し、閉ループ推論プロセスを用いるLLMを作成するための厳密な設計のフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T18:10:02Z) - EpiK-Eval: Evaluation for Language Models as Epistemic Models [16.485951373967502]
セグメンテッドな物語から一貫した知識表現を定式化する上で,LLMの習熟度を評価するための新しい質問答えベンチマークであるEpiK-Evalを紹介する。
これらの欠点は、一般的な訓練目的の本質的な性質に起因していると論じる。
本研究の成果は,より堅牢で信頼性の高いLCMを開発する上での洞察を与えるものである。
論文 参考訳(メタデータ) (2023-10-23T21:15:54Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。