論文の概要: Towards Human-Centered RegTech: Unpacking Professionals' Strategies and Needs for Using LLMs Safely
- arxiv url: http://arxiv.org/abs/2510.01638v1
- Date: Thu, 02 Oct 2025 03:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.972612
- Title: Towards Human-Centered RegTech: Unpacking Professionals' Strategies and Needs for Using LLMs Safely
- Title(参考訳): 人間中心のRegTechに向けて - 専門家の戦略とLLMの安全利用の必要性-
- Authors: Siying Hu, Yaxing Yao, Zhicong Lu,
- Abstract要約: 調査の結果、これらの専門家は、機密情報漏洩、知的財産権侵害、モデル出力の品質に関する不確実性など、一般的に懸念されていることがわかった。
応答として、入力データを積極的に歪ませたり、プロンプトの細部を制限したりするなど、様々な緩和戦略を自然に採用する。
我々の研究は、現在のNLPツールと専門家の実際のコンプライアンス要件との間に大きなギャップがあることを明らかにします。
- 参考スコア(独自算出の注目度): 41.788724443376815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models are profoundly changing work patterns in high-risk professional domains, yet their application also introduces severe and underexplored compliance risks. To investigate this issue, we conducted semi-structured interviews with 24 highly-skilled knowledge workers from industries such as law, healthcare, and finance. The study found that these experts are commonly concerned about sensitive information leakage, intellectual property infringement, and uncertainty regarding the quality of model outputs. In response, they spontaneously adopt various mitigation strategies, such as actively distorting input data and limiting the details in their prompts. However, the effectiveness of these spontaneous efforts is limited due to a lack of specific compliance guidance and training for Large Language Models. Our research reveals a significant gap between current NLP tools and the actual compliance needs of experts. This paper positions these valuable empirical findings as foundational work for building the next generation of Human-Centered, Compliance-Driven Natural Language Processing for Regulatory Technology (RegTech), providing a critical human-centered perspective and design requirements for engineering NLP systems that can proactively support expert compliance workflows.
- Abstract(参考訳): 大規模言語モデルでは、リスクの高いプロフェッショナルドメインの作業パターンが大幅に変化していますが、そのアプリケーションには、厳重で未調査のコンプライアンスリスクも伴います。
そこで本研究では,法律,医療,金融といった産業の高度知識労働者24名を対象に,半構造化面接を行った。
調査の結果、これらの専門家は、機密情報漏洩、知的財産権侵害、モデル出力の品質に関する不確実性など、一般的に懸念されていることがわかった。
応答として、入力データを積極的に歪ませたり、プロンプトの細部を制限したりするなど、様々な緩和戦略を自然に採用する。
しかし、これらの自発的な取り組みの有効性は、大規模言語モデルに対する具体的コンプライアンスガイダンスやトレーニングの欠如により制限されている。
我々の研究は、現在のNLPツールと専門家の実際のコンプライアンス要件との間に大きなギャップがあることを明らかにします。
本稿では,次世代の人間中心・コンプライアンス駆動自然言語処理(RegTech)を構築するための基礎的な作業として,これらの価値ある経験的知見を位置づけ,専門家のコンプライアンスワークフローを積極的に支援できるNLPシステムにおいて,人間中心の視点と設計要件を提供する。
関連論文リスト
- Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique [66.94905631175209]
我々は、段階的に自然言語の自己批判(PANEL)を行う新しい推論時間スケーリング手法を提案する。
ステップレベルの探索プロセスのガイドとして、自己生成の自然言語批判をフィードバックとして採用している。
このアプローチは、タスク固有の検証と関連するトレーニングオーバーヘッドの必要性を回避します。
論文 参考訳(メタデータ) (2025-03-21T17:59:55Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - The Human Factor in Detecting Errors of Large Language Models: A Systematic Literature Review and Future Research Directions [0.0]
2022年11月、OpenAIによるChatGPTのローンチは人工知能の重要な瞬間となった。
大規模言語モデル (LLM) は、様々な領域で顕著な会話能力を示す。
これらのモデルは「幻覚」や省略といった誤りに影響を受けやすく、誤った情報や不完全な情報を生成する。
論文 参考訳(メタデータ) (2024-03-13T21:39:39Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Building Guardrails for Large Language Models [19.96292920696796]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。