論文の概要: Insights for an AI Whistleblower Office from 30 Case Studies
- arxiv url: http://arxiv.org/abs/2603.01245v1
- Date: Sun, 01 Mar 2026 19:49:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.586488
- Title: Insights for an AI Whistleblower Office from 30 Case Studies
- Title(参考訳): 30のケーススタディからAIウィストルブロワーオフィスへの展望
- Authors: Ethan Beri, Mauricio Baker,
- Abstract要約: 本稿では、政策立案者がAIホイッスルブロワープログラムの設計を支援することを目的とする。
実験的なアプローチを採り、whiblowersの30のケーススタディのデータセットを組み立てる。
- 参考スコア(独自算出の注目度): 0.3033225941396505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whistleblower programmes are a promising tool for uncovering noncompliance with AI regulations. This paper aims to help policymakers design an AI whistleblower programme by giving them an understanding of whistleblowers' motivations, and of the overall whistleblowing process. We take an empirical approach, assembling a dataset of 30 case studies of whistleblowers. This dataset includes dozens of features of each case, which range from 1978 to 2020 and span 15 industries. Our findings suggest that whistleblower programmes will be more effective if they financially reward whistleblowers, provide protections for whistleblowers, enable whistleblowers to report anonymously, are adequately staffed and funded, and provide advice to potential whistleblowers. We provide ten concrete policy recommendations for an AI whistleblower programme at the end of this paper.
- Abstract(参考訳): Whistleblowerプログラムは、AI規則に準拠しないことを明らかにするための有望なツールである。
本稿では、政策立案者が内部告発者のモチベーションと全体的な内部告発プロセスを理解することによって、AIウイスブロワープログラムの設計を支援することを目的とする。
実験的なアプローチを採り、whiblowersの30のケーススタディのデータセットを組み立てる。
このデータセットには、1978年から2020年、そして15の業界にまたがる、ケースの数十の機能が含まれている。
本研究は, 内部告発者に対して, 経済的に報奨を与え, 内部告発者に対する保護を提供し, 匿名で報告できるようにし, 適切なスタッフと資金提供を行い, 潜在的な内部告発者へのアドバイスを行えば, 内部告発者プログラムはより効果的であることが示唆された。
本稿の最後には,AIウィスブロワープログラムの具体的なポリシーを10つ提案する。
関連論文リスト
- Department-Specific Security Awareness Campaigns: A Cross-Organizational Study of HR and Accounting [2.188416707136253]
HRは、不正行為、クレデンシャル盗難、ランサムウェアに晒されている間、マルウェアや幹部の不正行為を含む求職アプリケーションを通じてターゲットとされている。
本研究は,これらの知見に基づいて,部門のニーズに合わせて意識プログラムを設計するための推奨事項を提案する。
論文 参考訳(メタデータ) (2025-11-27T07:55:15Z) - The Journal of Prompt-Engineered Philosophy Or: How I Started to Track AI Assistance and Stopped Worrying About Slop [0.0]
記事は、インセンティブがいかに透明性を損なうかを分析します。
伝統的な会場は政策の調整だけでこの緊張を解消できない。
義務的な開示を強制し、複製に基づくレビューを可能にし、詳細なドキュメントを通じて生態学的妥当性をサポートする。
論文 参考訳(メタデータ) (2025-11-10T08:56:21Z) - Identity Theft in AI Conference Peer Review [50.18240135317708]
人工知能(AI)研究における科学的ピアレビュープロセスにおいて,新たに発見されたID盗難事例について論じる。
論文評価の操作に不正なレビュアープロファイルを作成することにより、不正直な研究者がピアレビューシステムをどのように活用するかを詳述する。
論文 参考訳(メタデータ) (2025-08-06T02:36:52Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - A Law Reasoning Benchmark for LLM with Tree-Organized Structures including Factum Probandum, Evidence and Experiences [76.73731245899454]
本稿では,階層的なファクトラム,証拠,暗黙的な経験に富む透明な法理推論スキーマを提案する。
このスキーマにインスパイアされた課題は、テキストのケース記述を取り込み、最終決定を正当化する階層構造を出力する。
このベンチマークは、Intelligent Courtにおける透明で説明可能なAI支援法推論の道を開く」。
論文 参考訳(メタデータ) (2025-03-02T10:26:54Z) - To Err is AI : A Case Study Informing LLM Flaw Reporting Practices [16.496105857914536]
495人のハッカーが、AIのためのアレン研究所(Allen Institute for AI)のオープン言語モデル(OLMo)をターゲットにした、オープンエンドのバグ報奨金で評価を作成した。
本稿では,インシデントの可能性を減らすことを目的とした,欠陥報告のベストプラクティスについて,学習した教訓の集合体を提示する。
論文 参考訳(メタデータ) (2024-10-15T23:02:42Z) - On the Detection of Reviewer-Author Collusion Rings From Paper Bidding [71.43634536456844]
衝突リングは、コンピュータサイエンスカンファレンスのピアレビューシステムに大きな脅威をもたらす。
この問題を解決する1つのアプローチは、操作された入札から衝突するレビュアーを検出することである。
衝突環の検出が可能であるという研究はまだ確立されていない。
論文 参考訳(メタデータ) (2024-02-12T18:12:09Z) - A LLM Assisted Exploitation of AI-Guardian [57.572998144258705]
IEEE S&P 2023で発表された敵に対する最近の防衛であるAI-Guardianの堅牢性を評価する。
我々は、このモデルを攻撃するためのコードを書かず、代わりに、GPT-4に命令とガイダンスに従って全ての攻撃アルゴリズムを実装するよう促します。
このプロセスは驚くほど効果的で効率的であり、言語モデルでは、この論文の著者が実行したよりも高速に曖昧な命令からコードを生成することもあった。
論文 参考訳(メタデータ) (2023-07-20T17:33:25Z) - A Dataset on Malicious Paper Bidding in Peer Review [84.68308372858755]
悪意あるレビュアーは、紙の割り当てを非倫理的に操作するために戦略的に入札した。
この問題を緩和するための方法の作成と評価への重要な障害は、悪意ある紙入札に関する公開データの欠如である。
我々は、参加者に正直に、悪意的に入札するよう指示されたモックカンファレンス活動から収集された、新しいデータセットをリリースする。
論文 参考訳(メタデータ) (2022-06-24T20:23:33Z) - Snitches Get Stitches: On The Difficulty of Whistleblowing [4.861125297881693]
我々は、内部告発者がより安全に機密文書をジャーナリストにリークできるようにする取り組みについて報告する。
内部告発者は、しばしば他人のモチベーションや能力に恵まれている。
我々は、内部告発者のリスクを軽減するためにテクノロジーが使用される可能性のある特定の領域を特定する。
論文 参考訳(メタデータ) (2020-06-25T13:46:04Z) - Hiring Fairly in the Age of Algorithms [0.0]
我々は、雇用者から一般大衆への透明性を高めることで、雇用アルゴリズムの負の影響を緩和できると主張している。
私たちの主な貢献は、自動化された雇用の透明性、アルゴリズムによる透明性レポートのためのフレームワークです。
論文 参考訳(メタデータ) (2020-04-15T14:58:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。