論文の概要: LLM Harms: A Taxonomy and Discussion
- arxiv url: http://arxiv.org/abs/2512.05929v1
- Date: Fri, 05 Dec 2025 18:12:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:57.129762
- Title: LLM Harms: A Taxonomy and Discussion
- Title(参考訳): LLM Harms: 分類学と議論
- Authors: Kevin Chen, Saleh Afroogh, Abhejay Murali, David Atkinson, Amit Dhurandhar, Junfeng Jiao,
- Abstract要約: 本研究では,人工知能分野におけるLarge Language Models (LLM) を取り巻く害のカテゴリについて検討する。
事前開発、直接アウトプット、ミススと悪意のあるアプリケーション、ダウンストリームアプリケーションという、AIアプリケーション開発の前、中、後の開発に対処する5つのカテゴリに対処する。
- 参考スコア(独自算出の注目度): 9.544657426086284
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This study addresses categories of harm surrounding Large Language Models (LLMs) in the field of artificial intelligence. It addresses five categories of harms addressed before, during, and after development of AI applications: pre-development, direct output, Misuse and Malicious Application, and downstream application. By underscoring the need to define risks of the current landscape to ensure accountability, transparency and navigating bias when adapting LLMs for practical applications. It proposes mitigation strategies and future directions for specific domains and a dynamic auditing system guiding responsible development and integration of LLMs in a standardized proposal.
- Abstract(参考訳): 本研究では,人工知能分野におけるLarge Language Models (LLM) を取り巻く害のカテゴリについて検討する。
事前開発、直接アウトプット、ミススと悪意のあるアプリケーション、ダウンストリームアプリケーションという、AIアプリケーション開発の前、中、後の開発に対処する5つのカテゴリに対処する。
現実的なアプリケーションにLLMを適用する際に、説明責任、透明性、バイアスのナビゲートを保証するために、現在の状況のリスクを定義する必要があることを強調する。
特定ドメインに対する緩和戦略と今後の方向性について提案し、標準化された提案においてLCMの責任ある開発と統合を導く動的監査システムを提案する。
関連論文リスト
- A Comprehensive Review on Harnessing Large Language Models to Overcome Recommender System Challenges [5.750235776275005]
大規模言語モデル(LLM)は、レコメンデータシステムにおいて重要な課題に取り組むために利用することができる。
LLMはパーソナライズ、セマンティックアライメント、解釈可能性を高める。
LLMはゼロショットと少数ショットの推論を可能にし、コールドスタートとロングテールのシナリオでシステムが効果的に動作できるようにする。
論文 参考訳(メタデータ) (2025-07-17T06:03:57Z) - Exploring the Roles of Large Language Models in Reshaping Transportation Systems: A Survey, Framework, and Roadmap [51.198001060683296]
大型言語モデル(LLM)は、輸送上の課題に対処するための変革的な可能性を提供する。
LLM4TRは,交通におけるLSMの役割を体系的に分類する概念的枠組みである。
それぞれの役割について,交通予測や自律運転,安全分析,都市移動最適化など,さまざまな応用について検討した。
論文 参考訳(メタデータ) (2025-03-27T11:56:27Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - AI Safety in Generative AI Large Language Models: A Survey [14.737084887928408]
生成的AI能力を示す大規模言語モデル(LLM)は、採用とイノベーションの加速に直面している。
生成AI(GAI)は、これらのモデルに関連するリスクと安全性に関する懸念を必然的に高める。
本稿では,コンピュータ科学者の視点からAI安全研究の最新の動向について報告する。
論文 参考訳(メタデータ) (2024-07-06T09:00:18Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - LgTS: Dynamic Task Sampling using LLM-generated sub-goals for
Reinforcement Learning Agents [10.936460061405157]
LgTS (LLM-Guided Teacher-Student Learning) を提案する。
提案手法では,提案したサブゴールを達成するための事前訓練されたポリシーも必要としない。
論文 参考訳(メタデータ) (2023-10-14T00:07:03Z) - PRISMA-DFLLM: An Extension of PRISMA for Systematic Literature Reviews
using Domain-specific Finetuned Large Language Models [0.0]
本稿では,Large Language Models(LLMs)のパワーと,PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)の厳密な報告ガイドラインを組み合わせたAI対応方法論フレームワークを提案する。
厳密なSLRプロセスの結果として選択されたドメイン固有の学術論文にLCMを微調整することにより、提案するPRISMA-DFLLMレポートガイドラインは、より効率、再利用性、拡張性を達成する可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-15T02:52:50Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。