論文の概要: Industrial Limitations on Academic Freedom in Computer Science
- arxiv url: http://arxiv.org/abs/2206.08067v1
- Date: Thu, 16 Jun 2022 10:30:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:48:03.518370
- Title: Industrial Limitations on Academic Freedom in Computer Science
- Title(参考訳): コンピュータ科学における産学自由の制限
- Authors: Reuben Kirkham
- Abstract要約: 学術的自由を制限する分野は、その内で行われる仕事の結果が常に信頼できないというリスクを生じさせる。
本稿では,提供可能な保護範囲について論じる。
- 参考スコア(独自算出の注目度): 6.980076213134384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of computer science is perhaps uniquely connected with industry.
For example, our main publication outlets (i.e. conferences) are regularly
sponsored by large technology companies, and much of our research funding is
either directly or indirectly provided by industry. In turn, this places
potential limitations on academic freedom, which is a profound ethical concern,
yet curiously is not directly addressed within existing ethical codes. A field
that limits academic freedom presents the risk that the results of the work
conducted within it cannot always be relied upon. In the context of a field
that is perhaps unique in both its connection to industry and impact on
society, special measures are needed to address this problem. This paper
discusses the range of protections that could be provided.
- Abstract(参考訳): コンピュータ科学の分野はおそらく産業と一意に結びついている。
例えば、私たちの主要な出版物(すなわちカンファレンス)は、大企業が定期的にスポンサーしていますし、研究資金の多くは業界から直接、あるいは間接的に提供されています。
これは、深い倫理的懸念である学術的自由に潜在的な制限を課すが、奇妙なことに、既存の倫理的規範には直接対応されない。
学術的自由を制限する分野は、その内で行われる仕事の結果が常に信頼できないというリスクを示す。
産業との関係と社会への影響の両方においておそらくユニークな分野の文脈では、この問題に対処するために特別な措置が必要である。
本稿では,提供可能な保護範囲について論じる。
関連論文リスト
- Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - The Paradox of Industrial Involvement in Engineering Higher Education [0.0]
工学教育におけるカリキュラムは、しばしば社会現実の深い理解を欠いていると論じる。
私たちは、数十年間エンジニアリングの高等教育を推進してきた業界と、この珍しいつながりを確立しています。
より批判的な視点を維持するために、エンジニアリングスクールの必要性を強調します。
論文 参考訳(メタデータ) (2024-02-26T17:35:23Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Artificial intelligence adoption in the physical sciences, natural
sciences, life sciences, social sciences and the arts and humanities: A
bibliometric analysis of research publications from 1960-2021 [73.06361680847708]
1960年には333の研究分野の14%がAIに関連していたが、1972年には全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
1960年には、333の研究分野の14%がAI(コンピュータ科学の多くの分野)に関連していたが、1972年までに全研究分野の半分以上、1986年には80%以上、現在では98%以上まで増加した。
我々は、現在の急上昇の状況が異なっており、学際的AI応用が持続する可能性が高いと結論付けている。
論文 参考訳(メタデータ) (2023-06-15T14:08:07Z) - Applying Standards to Advance Upstream & Downstream Ethics in Large
Language Models [0.0]
本稿では,AIが生成するコンテンツの保護をAI所有者がいかに開発できるかを考察する。
他のコンテンツ制作業界では、行動規範や倫理基準が確立されている。
論文 参考訳(メタデータ) (2023-06-06T08:47:42Z) - The Technological Emergence of AutoML: A Survey of Performant Software
and Applications in the Context of Industry [72.10607978091492]
Automated/Autonomous Machine Learning (AutoML/AutonoML)は比較的若い分野である。
このレビューは、このトピックに関する知識に2つの主要な貢献をしている。
オープンソースと商用両方の既存のAutoMLツールについて、最新かつ包括的な調査を提供する。
論文 参考訳(メタデータ) (2022-11-08T10:42:08Z) - The Privatization of AI Research(-ers): Causes and Potential
Consequences -- From university-industry interaction to public research
brain-drain? [0.0]
民間部門は、基本人工知能(AI)研究開発においてますます重要な役割を担っている。
この現象は、学術から産業への研究者の脳ドレインの認識に反映されている。
学界から業界、特にエリート機関からGoogle、Microsoft、Facebookといったテクノロジー企業への研究者の流入が増加しています。
論文 参考訳(メタデータ) (2021-02-02T18:02:41Z) - Nose to Glass: Looking In to Get Beyond [0.0]
責任ある人工知能を強化するというバナーの下で研究が増えている。
研究の目的は、アルゴリズムシステムの展開によって引き起こされる害に対処し、緩和し、最終的には軽減することである。
しかし、そのようなツールの実装は依然として少ない。
論文 参考訳(メタデータ) (2020-11-26T06:51:45Z) - The Grey Hoodie Project: Big Tobacco, Big Tech, and the threat on
academic integrity [3.198144010381572]
われわれは、Big Techが学術的展望を積極的に歪め、そのニーズに合うかを示す。
他の業界(Big Tobacco)のよく研究されている行動と、現在のBig Techの行動を比較することで、どちらの業界でも同様の戦略が採用されていることがわかる。
学術研究の資金を、ビッグデータが社会的に責任を負う公共イメージの推進に利用するツールとして検討する。
論文 参考訳(メタデータ) (2020-09-28T23:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。