論文の概要: LLM Company Policies and Policy Implications in Software Organizations
- arxiv url: http://arxiv.org/abs/2510.06718v1
- Date: Wed, 08 Oct 2025 07:14:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.345556
- Title: LLM Company Policies and Policy Implications in Software Organizations
- Title(参考訳): LLMの企業政策とソフトウェア組織における政策含意
- Authors: Ranim Khojah, Mazen Mohamad, Linda Erlenhov, Francisco Gomes de Oliveira Neto, Philipp Leitner,
- Abstract要約: この記事では、ソフトウェア組織における大規模言語モデル(LLM)チャットボットの採用に伴うリスクについて考察する。
我々は、11社がこれらのポリシーと、それらに影響を与える要因をどのように作り出すかを検討する。
- 参考スコア(独自算出の注目度): 3.4623135750901706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The risks associated with adopting large language model (LLM) chatbots in software organizations highlight the need for clear policies. We examine how 11 companies create these policies and the factors that influence them, aiming to help managers safely integrate chatbots into development workflows.
- Abstract(参考訳): ソフトウェア組織における大規模言語モデル(LLM)チャットボットの採用に伴うリスクは、明確なポリシーの必要性を強調している。
我々は、マネージャが開発ワークフローにチャットボットを安全に統合することを支援することを目的として、11社がこれらのポリシーとそれらに影響を与える要因をどのように作成するかを検討する。
関連論文リスト
- What Makes LLM Agent Simulations Useful for Policy? Insights From an Iterative Design Engagement in Emergency Preparedness [19.98298738980743]
社会シミュレーションにLarge Language Modelsをエージェント(LLMエージェント)として使うことへの関心が高まっているが、実際の採用は限られている。
LLMエージェントのシミュレーションは、政策にどのように役立つのか?
我々は,様々な緊急シナリオ下での大規模な集まりにおいて,群衆の動きとコミュニケーションをシミュレートする13,000個のLDMエージェントを反復的に開発した。
論文 参考訳(メタデータ) (2025-09-26T04:51:34Z) - What Would an LLM Do? Evaluating Policymaking Capabilities of Large Language Models [13.022045946656661]
本稿は,大規模言語モデル(LLM)が,ホームレスの緩和をテーマとした社会政策決定に,ドメインエキスパートと協調しているかどうかを評価する。
4つの地域をまたいだ政策選択を伴う意思決定シナリオからなる新しいベンチマークを開発する。
本稿では,ベンチマークされたポリシーをエージェントベースモデルに接続する自動パイプラインを提案する。
論文 参考訳(メタデータ) (2025-09-04T02:28:58Z) - LLM Access Shield: Domain-Specific LLM Framework for Privacy Policy Compliance [2.2022550150705804]
大規模言語モデル(LLM)は、金融、教育、ガバナンスといった分野でますます適用されてきている。
LLMインタラクションにおけるポリシー遵守とリスク軽減のためのセキュリティフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T07:30:37Z) - From Texts to Shields: Convergence of Large Language Models and Cybersecurity [15.480598518857695]
本稿では,大規模言語モデル(LLM)とサイバーセキュリティの収束について検討する。
ソフトウェアおよびネットワークセキュリティ、5G脆弱性分析、生成セキュリティ工学におけるLLMの新たな応用について検討する。
論文 参考訳(メタデータ) (2025-05-01T20:01:07Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Developing Assurance Cases for Adversarial Robustness and Regulatory Compliance in LLMs [1.368472250332885]
我々は,大規模言語モデル(LLM)における対向ロバスト性および規制遵守のための保証事例開発のためのアプローチを開発する。
我々は、これらの攻撃を緩和し、EU AI Actへのコンプライアンスを確保することを目的とした、配置のさまざまな段階でガードレールを組み込んだ階層化されたフレームワークを提案する。
当社の手法を2つの模範的保証ケースで説明し、さまざまなコンテキストが、堅牢で準拠のAIシステムを保証するために、どのように適切な戦略を要求するかを強調した。
論文 参考訳(メタデータ) (2024-10-04T18:14:29Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - LanguageMPC: Large Language Models as Decision Makers for Autonomous Driving [84.31119464141631]
この作業では、複雑な自律運転シナリオの意思決定コンポーネントとして、Large Language Models(LLM)を採用している。
大規模実験により,提案手法は単車載タスクのベースラインアプローチを一貫して超えるだけでなく,複数車載コーディネートにおいても複雑な運転動作の処理にも有効であることが示された。
論文 参考訳(メタデータ) (2023-10-04T17:59:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。