論文の概要: RECALL-MM: A Multimodal Dataset of Consumer Product Recalls for Risk Analysis using Computational Methods and Large Language Models
- arxiv url: http://arxiv.org/abs/2503.23213v1
- Date: Sat, 29 Mar 2025 20:27:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:39:51.092837
- Title: RECALL-MM: A Multimodal Dataset of Consumer Product Recalls for Risk Analysis using Computational Methods and Large Language Models
- Title(参考訳): RECALL-MM:計算手法と大規模言語モデルを用いたリスク分析のための消費者製品リコールのマルチモーダルデータセット
- Authors: Diana Bolanos, Mohammadmehdi Ataei, Daniele Grandi, Kosa Goucher-Lambert,
- Abstract要約: プロダクトリコールは、エンジニアリング設計プロセスにおける潜在的なリスクとハザードに関する貴重な洞察を提供する。
我々は,過去の情報を用いてデータ駆動型リスクアセスメントを通知するマルチモーダルデータセットRECALL-MMを開発した。
製品リスクを特定し、より安全な設計決定を導く上で、データセットの有用性を示すために、3つのケーススタディを検討します。
- 参考スコア(独自算出の注目度): 0.8514062145382637
- License:
- Abstract: Product recalls provide valuable insights into potential risks and hazards within the engineering design process, yet their full potential remains underutilized. In this study, we curate data from the United States Consumer Product Safety Commission (CPSC) recalls database to develop a multimodal dataset, RECALL-MM, that informs data-driven risk assessment using historical information, and augment it using generative methods. Patterns in the dataset highlight specific areas where improved safety measures could have significant impact. We extend our analysis by demonstrating interactive clustering maps that embed all recalls into a shared latent space based on recall descriptions and product names. Leveraging these data-driven tools, we explore three case studies to demonstrate the dataset's utility in identifying product risks and guiding safer design decisions. The first two case studies illustrate how designers can visualize patterns across recalled products and situate new product ideas within the broader recall landscape to proactively anticipate hazards. In the third case study, we extend our approach by employing a large language model (LLM) to predict potential hazards based solely on product images. This demonstrates the model's ability to leverage visual context to identify risk factors, revealing strong alignment with historical recall data across many hazard categories. However, the analysis also highlights areas where hazard prediction remains challenging, underscoring the importance of risk awareness throughout the design process. Collectively, this work aims to bridge the gap between historical recall data and future product safety, presenting a scalable, data-driven approach to safer engineering design.
- Abstract(参考訳): 製品リコールは、エンジニアリング設計プロセスにおける潜在的なリスクとハザードに関する貴重な洞察を提供するが、その潜在能力は未利用のままである。
本研究では,米国消費者製品安全委員会(CPSC)がデータベースをリコールし,過去の情報を用いてデータ駆動型リスクアセスメントを通知するマルチモーダルデータセットRECALL-MMを開発した。
データセットのパターンは、改善された安全対策が大きな影響を与える可能性のある特定の領域を強調します。
我々は、リコール記述と製品名に基づいて、すべてのリコールを共有潜在空間に埋め込むインタラクティブなクラスタリングマップをデモすることで、分析を拡張します。
これらのデータ駆動ツールを活用することで、製品リスクを特定し、より安全な設計決定を導く上で、データセットの有用性を示す3つのケーススタディを探索する。
最初の2つのケーススタディは、デザイナーがリコールされた製品にまたがってパターンを視覚化し、より広いリコール環境の中に新しいプロダクトのアイデアを配置して、積極的にハザードを予測できるようにする方法を示している。
第3のケーススタディでは,大規模言語モデル(LLM)を用いて,製品画像のみに基づく潜在的な危険を予測し,アプローチを拡張した。
これは、視覚的コンテキストを活用してリスク要因を識別する能力を示し、多くの危険カテゴリにわたる過去のリコールデータと強い整合性を示す。
しかし、この分析はリスク予測が困難な領域を強調し、設計プロセス全体を通してリスク認識の重要性を強調している。
この研究は、歴史的リコールデータと将来の製品の安全性のギャップを埋めることを目的としており、より安全なエンジニアリング設計のためのスケーラブルでデータ駆動のアプローチを提示している。
関連論文リスト
- Active Learning for Robust and Representative LLM Generation in Safety-Critical Scenarios [32.16984263644299]
大きな言語モデル(LLM)は、安全対策のための貴重なデータを生成することができるが、しばしば分布バイアスを示す。
LLM生成を導くために,アクティブラーニングとクラスタリングを統合した新しいフレームワークを提案する。
この結果から,提案フレームワークは,基礎となるデータ分布の事前知識を必要とせずに,より代表的な安全シナリオを生成できることが示唆された。
論文 参考訳(メタデータ) (2024-10-14T21:48:14Z) - Supply Risk-Aware Alloy Discovery and Design [0.2968738145616401]
本稿では,材料開発プロセスにサプライチェーン・アウェア・デザイン・ストラテジーを統合する新しいリスク・アウェア・デザイン・アプローチを提案する。
性能と供給リスクの両方を最適化することにより、開発した合金が高性能であるだけでなく、持続可能かつ経済的に実現可能であることを保証する。
この統合されたアプローチは、サステナビリティ、サプライチェーンのダイナミクス、包括的なライフサイクル分析をシームレスに検討する材料発見と設計が将来に向けて重要なステップである。
論文 参考訳(メタデータ) (2024-09-22T21:54:34Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - Do as I do (Safely): Mitigating Task-Specific Fine-tuning Risks in Large Language Models [93.08860674071636]
悪質なアクターが、ほぼすべてのタスク固有のデータセットの構造を微妙に操作して、危険なモデル行動を促進する方法を示す。
本稿では,タスク形式を模倣した安全データとユーザデータのスタイルを混合した新しい緩和戦略を提案する。
論文 参考訳(メタデータ) (2024-06-12T18:33:11Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - SafetyPrompts: a Systematic Review of Open Datasets for Evaluating and Improving Large Language Model Safety [27.843894102000608]
我々は、大規模言語モデル(LLM)の安全性を評価し改善するためのオープンデータセットの最初の体系的なレビューを行う。
完全な合成データセットへのトレンドや、非英語および自然主義データセットの明確な欠如など、データセットカバレッジのギャップといったトレンドを強調します。
当社のコントリビューションは,LLM安全性のためのオープンデータセットのリビングカタログであるSafetyPrompts.comに基づいています。
論文 参考訳(メタデータ) (2024-04-08T10:57:25Z) - Formalized Identification Of Key Factors In Safety-Relevant Failure
Scenarios [0.0]
本稿では、安全関連障害シナリオにおける重要な要因を系統的に同定する、データに基づくアプローチを提案する。
このアプローチでは、障害データベースの情報に基づいて影響要因を導出する。
本研究は、障害データベースの情報を用いて、安全関連障害シナリオの重要な要因を特定するための堅牢な方法を示す。
論文 参考訳(メタデータ) (2024-02-28T09:28:36Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Modeling and mitigation of occupational safety risks in dynamic
industrial environments [0.0]
本稿では,データ駆動方式で安全リスクを連続的かつ定量的に評価する手法を提案する。
オンライン形式で安全データからこのモデルを校正するために、完全なベイズ的アプローチが開発されている。
提案したモデルは自動意思決定に利用することができる。
論文 参考訳(メタデータ) (2022-05-02T13:04:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。