論文の概要: Empowering Manufacturers with Privacy-Preserving AI Tools: A Case Study in Privacy-Preserving Machine Learning to Solve Real-World Problems
- arxiv url: http://arxiv.org/abs/2507.01808v1
- Date: Wed, 02 Jul 2025 15:25:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.357352
- Title: Empowering Manufacturers with Privacy-Preserving AI Tools: A Case Study in Privacy-Preserving Machine Learning to Solve Real-World Problems
- Title(参考訳): プライバシ保護型AIツールによる製造業者強化: 現実の問題を解決するためのプライバシ保護型機械学習の事例研究
- Authors: Xiaoyu Ji, Jessica Shorland, Joshua Shank, Pascal Delpe-Brice, Latanya Sweeney, Jan Allebach, Ali Shakouri,
- Abstract要約: 本稿では、メーカーがセキュアな方法でデータを研究者と安全に共有できるプライバシー保護プラットフォームを提案する。
得られたアルゴリズムは、ファクトリーフロアで実際の使用のために、元のプラットフォームを通じて保護されたWebベースのアプリを介してパッケージ化された。
- 参考スコア(独自算出の注目度): 2.9290737630262598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small- and medium-sized manufacturers need innovative data tools but, because of competition and privacy concerns, often do not want to share their proprietary data with researchers who might be interested in helping. This paper introduces a privacy-preserving platform by which manufacturers may safely share their data with researchers through secure methods, so that those researchers then create innovative tools to solve the manufacturers' real-world problems, and then provide tools that execute solutions back onto the platform for others to use with privacy and confidentiality guarantees. We illustrate this problem through a particular use case which addresses an important problem in the large-scale manufacturing of food crystals, which is that quality control relies on image analysis tools. Previous to our research, food crystals in the images were manually counted, which required substantial and time-consuming human efforts, but we have developed and deployed a crystal analysis tool which makes this process both more rapid and accurate. The tool enables automatic characterization of the crystal size distribution and numbers from microscope images while the natural imperfections from the sample preparation are automatically removed; a machine learning model to count high resolution translucent crystals and agglomeration of crystals was also developed to aid in these efforts. The resulting algorithm was then packaged for real-world use on the factory floor via a web-based app secured through the originating privacy-preserving platform, allowing manufacturers to use it while keeping their proprietary data secure. After demonstrating this full process, future directions are also explored.
- Abstract(参考訳): 中小企業のメーカーは革新的なデータツールを必要とするが、競合やプライバシーの懸念から、支援に興味のある研究者と独自のデータを共有したくないことが多い。
本稿では,メーカーがセキュアな方法で研究者とデータを安全に共有することのできるプライバシ保護プラットフォームを紹介し,それらの研究者が,メーカーの現実の問題を解決する革新的なツールを作成し,プライバシと機密性を保証するためにプラットフォーム上でソリューションを実行するツールを提供する。
本稿では,食品結晶の大規模製造において重要な問題である,画像解析ツールに品質管理が依存する,特定のユースケースを通じてこの問題を説明する。
これまでは、画像中の食品の結晶は手動で数えられていたため、相当な時間を要するが、結晶分析ツールを開発して展開し、このプロセスをより迅速かつ正確にした。
試料からの自然欠陥を自動的に除去しながら、顕微鏡画像から結晶径分布と数を自動的に評価し、高分解能の半透明結晶を数える機械学習モデルも開発され、これらの取り組みに役立てられた。
得られたアルゴリズムは、プライバシ保護プラットフォームを通じて保護されたWebベースのアプリを通じてファクトリフロアで実際の使用のためにパッケージされ、メーカーが独自のデータを保護しながら使用することが可能になった。
この全過程を実証した後、今後の方向性についても検討する。
関連論文リスト
- Privacy Preservation in Gen AI Applications [0.0]
LLM(Large Language Models)は、意図せずユーザインタラクションからPII(Personally Identible Information)を吸収し、明らかにする。
ディープニューラルネットワークの複雑さは、プライベート情報の意図しない保存とリリースの追跡や停止を困難にしている。
本研究では,データ抽出やモデルインバージョン,メンバシップ推論といった攻撃を通じて生成AIの弱点を検出することで,これらの問題に対処する。
LLMを扱う前にPIIを識別、変更、削除する手法を使用することで、機能を犠牲にすることなくプライバシを確保する。
論文 参考訳(メタデータ) (2025-04-12T06:19:37Z) - Automated Privacy-Preserving Techniques via Meta-Learning [4.239829789304117]
最初の自動プライバシ保存手法であるAUTOPRIVを提案する。
メタラーニングを使用して、非識別プロセスを自動化することで、マシンラーニングタスクのためのデータのセキュアなリリースを容易にする。
我々は、新しい領域内で最適な近似を達成できるであろう最も有望なソリューションのランクリストを提供する。
論文 参考訳(メタデータ) (2024-06-24T08:53:45Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Privacy and Copyright Protection in Generative AI: A Lifecycle Perspective [28.968233485060654]
データライフサイクルにおけるプライバシーと著作権保護の多面的課題について論じる。
我々は、技術的革新と倫理的展望を組み合わせた統合的なアプローチを提唱する。
この作業は、より広範な議論のきっかけとなり、ジェネレーティブAIにおけるデータのプライバシと著作権の整合性に対する継続的な取り組みを促進することを目的としている。
論文 参考訳(メタデータ) (2023-11-30T05:03:08Z) - On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - Applications of Federated Learning in Manufacturing: Identifying the
Challenges and Exploring the Future Directions with Industry 4.0 and 5.0
Visions [3.8351350496532057]
製造環境では、データ収集と分析は、しばしば時間がかかり、困難で、コストがかかるプロセスである。
IoT(Internet of Things)の導入により、データをリアルタイムでファクトリ全体で統合的に収集することが可能になる。
本研究は, 製造業における連合学習の課題と今後の方向性を概観することを目的とする。
論文 参考訳(メタデータ) (2023-02-27T04:31:49Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。