論文の概要: Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI
- arxiv url: http://arxiv.org/abs/2501.10389v1
- Date: Thu, 19 Dec 2024 17:40:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-26 04:03:53.559936
- Title: Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI
- Title(参考訳): 次世代AI時代の透明性・セキュリティ・職場訓練・意識
- Authors: Lakshika Vaishnav, Sakshi Singh, Kimberly A. Cornell,
- Abstract要約: AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper investigates the impacts of the rapidly evolving landscape of generative Artificial Intelligence (AI) development. Emphasis is given to how organizations grapple with a critical imperative: reevaluating their policies regarding AI usage in the workplace. As AI technologies advance, ethical considerations, transparency, data privacy, and their impact on human labor intersect with the drive for innovation and efficiency. Our research explores publicly accessible large language models (LLMs) that often operate on the periphery, away from mainstream scrutiny. These lesser-known models have received limited scholarly analysis and may lack comprehensive restrictions and safeguards. Specifically, we examine Gab AI, a platform that centers around unrestricted communication and privacy, allowing users to interact freely without censorship. Generative AI chatbots are increasingly prevalent, but cybersecurity risks have also escalated. Organizations must carefully navigate this evolving landscape by implementing transparent AI usage policies. Frequent training and policy updates are essential to adapt to emerging threats. Insider threats, whether malicious or unwitting, continue to pose one of the most significant cybersecurity challenges in the workplace. Our research is on the lesser-known publicly accessible LLMs and their implications for workplace policies. We contribute to the ongoing discourse on AI ethics, transparency, and security by emphasizing the need for well-thought-out guidelines and vigilance in policy maintenance.
- Abstract(参考訳): 本稿では, 生成型人工知能(AI)開発における, 急速に発展するランドスケープの影響について検討する。
組織は、職場でのAI使用に関するポリシーを再評価する。
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
これらのあまり知られていないモデルは、限られた学術的分析を受けており、包括的な制限や保護が欠如している可能性がある。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
ジェネレーティブなAIチャットボットはますます普及しているが、サイバーセキュリティのリスクも増大している。
組織は、透明なAI利用ポリシーを実装することによって、この進化する展望を慎重にナビゲートする必要があります。
新たな脅威に適応するためには、頻繁なトレーニングと政策更新が不可欠だ。
内部の脅威は、悪意のあるものであれ無知であれ、職場における最も重要なサイバーセキュリティの課題の1つであり続けている。
我々の研究は、あまり知られていない公的なLLMとその職場政策への影響についてである。
我々は、よく考えられたガイドラインと政策維持に対する警戒の必要性を強調することで、AI倫理、透明性、セキュリティに関する継続的な議論に貢献する。
関連論文リスト
- Artificial Intelligence in Cybersecurity: Building Resilient Cyber Diplomacy Frameworks [0.0]
本稿では、自動化と人工知能(AI)が米国のサイバー外交をいかに変えつつあるかを考察する。
これらの技術を活用することで、米国はサイバー外交の複雑さと緊急性を管理することができる。
論文 参考訳(メタデータ) (2024-11-17T17:57:17Z) - Assessing Privacy Policies with AI: Ethical, Legal, and Technical Challenges [6.916147439085307]
大きな言語モデル(LLM)は、ユーザのプライバシポリシを自動評価するために使用することができる。
このアプローチの課題を,技術的実現性,倫理的意味,法的適合性の3つの柱で検討する。
本研究は,今後の研究の可能性を特定し,LLM技術の利用に関する議論を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-10T21:36:35Z) - Safety challenges of AI in medicine [23.817939398729955]
レビューでは、医療の安全性を損なう可能性のあるAIプラクティスの潜在的なリスクについて検討している。
試験は、多様な集団におけるパフォーマンス、一貫性のない運用安定性、効果的なモデルチューニングのための高品質なデータの必要性、モデルの開発とデプロイメントにおけるデータ漏洩のリスクを低減した。
本稿の第2部では、医学的文脈において、大規模言語モデル(LLM)に特有の安全性の問題について論じる。
論文 参考訳(メタデータ) (2024-09-11T13:47:47Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards more Practical Threat Models in Artificial Intelligence Security [66.67624011455423]
最近の研究で、人工知能のセキュリティの研究と実践のギャップが特定されている。
我々は、AIセキュリティ研究で最も研究されている6つの攻撃の脅威モデルを再検討し、実際にAIの使用と一致させる。
論文 参考訳(メタデータ) (2023-11-16T16:09:44Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Users are the North Star for AI Transparency [111.5679109784322]
透明な人工知能システムを求める声が広まっているにもかかわらず、この用語は、厳密な政策の目的や具体的な研究ラインのオリエント化を表すために、多義的な意味に過大評価されている。
このことが起こる理由の1つは、AI透明性の明確な理想が、この仕事の体で実現されないことである。
透明性はユーザ中心で、ユーザ指向で、誠実です。
論文 参考訳(メタデータ) (2023-03-09T18:53:29Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。