論文の概要: Towards Human-Centered RegTech: Unpacking Professionals' Strategies and Needs for Using LLMs Safely
- arxiv url: http://arxiv.org/abs/2510.01638v1
- Date: Thu, 02 Oct 2025 03:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.972612
- Title: Towards Human-Centered RegTech: Unpacking Professionals' Strategies and Needs for Using LLMs Safely
- Title(参考訳): 人間中心のRegTechに向けて - 専門家の戦略とLLMの安全利用の必要性-
- Authors: Siying Hu, Yaxing Yao, Zhicong Lu,
- Abstract要約: 調査の結果、これらの専門家は、機密情報漏洩、知的財産権侵害、モデル出力の品質に関する不確実性など、一般的に懸念されていることがわかった。
応答として、入力データを積極的に歪ませたり、プロンプトの細部を制限したりするなど、様々な緩和戦略を自然に採用する。
我々の研究は、現在のNLPツールと専門家の実際のコンプライアンス要件との間に大きなギャップがあることを明らかにします。
- 参考スコア(独自算出の注目度): 41.788724443376815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models are profoundly changing work patterns in high-risk professional domains, yet their application also introduces severe and underexplored compliance risks. To investigate this issue, we conducted semi-structured interviews with 24 highly-skilled knowledge workers from industries such as law, healthcare, and finance. The study found that these experts are commonly concerned about sensitive information leakage, intellectual property infringement, and uncertainty regarding the quality of model outputs. In response, they spontaneously adopt various mitigation strategies, such as actively distorting input data and limiting the details in their prompts. However, the effectiveness of these spontaneous efforts is limited due to a lack of specific compliance guidance and training for Large Language Models. Our research reveals a significant gap between current NLP tools and the actual compliance needs of experts. This paper positions these valuable empirical findings as foundational work for building the next generation of Human-Centered, Compliance-Driven Natural Language Processing for Regulatory Technology (RegTech), providing a critical human-centered perspective and design requirements for engineering NLP systems that can proactively support expert compliance workflows.
- Abstract(参考訳): 大規模言語モデルでは、リスクの高いプロフェッショナルドメインの作業パターンが大幅に変化していますが、そのアプリケーションには、厳重で未調査のコンプライアンスリスクも伴います。
そこで本研究では,法律,医療,金融といった産業の高度知識労働者24名を対象に,半構造化面接を行った。
調査の結果、これらの専門家は、機密情報漏洩、知的財産権侵害、モデル出力の品質に関する不確実性など、一般的に懸念されていることがわかった。
応答として、入力データを積極的に歪ませたり、プロンプトの細部を制限したりするなど、様々な緩和戦略を自然に採用する。
しかし、これらの自発的な取り組みの有効性は、大規模言語モデルに対する具体的コンプライアンスガイダンスやトレーニングの欠如により制限されている。
我々の研究は、現在のNLPツールと専門家の実際のコンプライアンス要件との間に大きなギャップがあることを明らかにします。
本稿では,次世代の人間中心・コンプライアンス駆動自然言語処理(RegTech)を構築するための基礎的な作業として,これらの価値ある経験的知見を位置づけ,専門家のコンプライアンスワークフローを積極的に支援できるNLPシステムにおいて,人間中心の視点と設計要件を提供する。
関連論文リスト
- Agentic Adversarial QA for Improving Domain-Specific LLMs [53.00642389531106]
大規模言語モデル(LLM)は、しばしば専門分野に効果的に対応するのに苦労する。
本稿では,意味論的課題の集合をコンパクトに生成する逆問題生成フレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-20T10:53:09Z) - Understanding the Role of Large Language Models in Software Engineering: Evidence from an Industry Survey [0.6660458629649825]
本稿では,ソフトウェア工学におけるLarge Language Models (LLMs) の導入に関する実証的研究を,46名の業界専門家を対象に報告した。
結果は、特に技術的な問題に対する迅速な解決、ドキュメントサポートの改善、ソースコードの標準化の強化について、LLMの肯定的な認識を示します。
回答者はまた、認知依存、セキュリティリスク、および技術的自立の潜在的侵食に関する懸念を表明しました。
論文 参考訳(メタデータ) (2025-12-19T20:57:19Z) - Assessing Visual Privacy Risks in Multimodal AI: A Novel Taxonomy-Grounded Evaluation of Vision-Language Models [55.23884055923282]
包括的で多レベルなビジュアルプライバシ分類を導入します。
いくつかの最先端のビジョン・ランゲージ・モデルの性能評価を行った。
論文 参考訳(メタデータ) (2025-09-28T12:04:54Z) - Teaching Language Models To Gather Information Proactively [53.85419549904644]
大規模言語モデル(LLM)は、ますます協力的なパートナーとして機能することが期待されている。
本研究では,アクティブな情報収集という新たなタスクパラダイムを導入する。
キー情報をマスキングする、部分的に特定された現実世界のタスクを生成するスケーラブルなフレームワークを設計する。
このセットアップの中核となるイノベーションは、真に新しい暗黙のユーザー情報を引き出す質問に報酬を与える、強化された微調整戦略です。
論文 参考訳(メタデータ) (2025-07-28T23:50:09Z) - Understanding and Mitigating Risks of Generative AI in Financial Services [22.673239064487667]
我々は、金融サービスドメインに特有のAIコンテンツ安全性の考察を強調し、関連するAIコンテンツリスク分類を概説することを目指している。
我々は,既存のオープンソース技術ガードレールソリューションがこの分類をレッドチーム活動を通じて収集されたデータに基づいて評価することによってどのようにカバーするかを評価する。
論文 参考訳(メタデータ) (2025-04-25T16:55:51Z) - Dancing with Critiques: Enhancing LLM Reasoning with Stepwise Natural Language Self-Critique [66.94905631175209]
我々は、段階的に自然言語の自己批判(PANEL)を行う新しい推論時間スケーリング手法を提案する。
ステップレベルの探索プロセスのガイドとして、自己生成の自然言語批判をフィードバックとして採用している。
このアプローチは、タスク固有の検証と関連するトレーニングオーバーヘッドの必要性を回避します。
論文 参考訳(メタデータ) (2025-03-21T17:59:55Z) - Privacy Risks of General-Purpose AI Systems: A Foundation for Investigating Practitioner Perspectives [47.17703009473386]
強力なAIモデルによって、幅広いタスクでパフォーマンスが飛躍的に向上した。
プライバシの懸念は、さまざまなプライバシのリスクとAIモデルの脆弱性をカバーした、豊富な文献につながっている。
我々はこれらの調査論文の体系的なレビューを行い、GPAISにおけるプライバシーリスクの簡潔かつ有用な概観を提供する。
論文 参考訳(メタデータ) (2024-07-02T07:49:48Z) - A Survey on Large Language Models for Critical Societal Domains: Finance, Healthcare, and Law [65.87885628115946]
大規模言語モデル(LLM)は、金融、医療、法律の展望に革命をもたらしている。
我々は、医療における診断・治療方法論の強化、財務分析の革新、法的解釈・コンプライアンス戦略の精査におけるLCMの役割を強調した。
これらの分野におけるLLMアプリケーションの倫理を批判的に検討し、既存の倫理的懸念と透明で公平で堅牢なAIシステムの必要性を指摘した。
論文 参考訳(メタデータ) (2024-05-02T22:43:02Z) - The Human Factor in Detecting Errors of Large Language Models: A Systematic Literature Review and Future Research Directions [0.0]
2022年11月、OpenAIによるChatGPTのローンチは人工知能の重要な瞬間となった。
大規模言語モデル (LLM) は、様々な領域で顕著な会話能力を示す。
これらのモデルは「幻覚」や省略といった誤りに影響を受けやすく、誤った情報や不完全な情報を生成する。
論文 参考訳(メタデータ) (2024-03-13T21:39:39Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Building Guardrails for Large Language Models [19.96292920696796]
LLMの入力や出力をフィルタリングするガードレールは、コアセーフガード技術として登場した。
このポジションペーパーでは、現在のオープンソースソリューション(Llama Guard, Nvidia NeMo, Guardrails AI)を詳しく調べ、より完全なソリューションを構築するための課題と道筋について論じる。
論文 参考訳(メタデータ) (2024-02-02T16:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。