論文の概要: Generative AI Policies under the Microscope: How CS Conferences Are Navigating the New Frontier in Scholarly Writing
- arxiv url: http://arxiv.org/abs/2410.11977v1
- Date: Tue, 15 Oct 2024 18:33:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:44:57.003934
- Title: Generative AI Policies under the Microscope: How CS Conferences Are Navigating the New Frontier in Scholarly Writing
- Title(参考訳): 顕微鏡下でのジェネレーティブAIポリシー:CSカンファレンスが学術的執筆における新たなフロンティアをいかに導くか
- Authors: Mahjabin Nahar, Sian Lee, Becky Guillen, Dongwon Lee,
- Abstract要約: 本稿では,コンピュータサイエンス会議における生成型AI政策の現状について考察する。
政策適用のガイドラインを提供する。
生成AIはコンピュータ科学の未来において重要な役割を果たすと結論付けている。
- 参考スコア(独自算出の注目度): 5.177873730122791
- License:
- Abstract: This paper explores the current state of generative AI policies of computer science conferences and offers guidelines for policy adoption.
- Abstract(参考訳): 本稿では,コンピュータサイエンス会議における生成型AI政策の現状を考察し,政策導入のガイドラインを提供する。
関連論文リスト
- SelfBC: Self Behavior Cloning for Offline Reinforcement Learning [14.573290839055316]
本研究では,これまでに学習したポリシーの指数的移動平均によって生成されたサンプルに対して,学習したポリシーを制約する新しい動的ポリシー制約を提案する。
我々のアプローチは、ほぼ単調に改善された参照ポリシーをもたらす。
論文 参考訳(メタデータ) (2024-08-04T23:23:48Z) - From Guidelines to Governance: A Study of AI Policies in Education [1.9659095632676098]
本研究は,新興技術に関する政策状況を調べるための調査手法を用いている。
ほとんどの機関は、ChatGPTのようなAIツールの倫理的展開のための特別なガイドラインを欠いている。
高校は高等教育機関よりも政策に取り組む傾向が低い。
論文 参考訳(メタデータ) (2024-03-22T20:07:58Z) - Perspectives on the State and Future of Deep Learning -- 2023 [237.1458929375047]
このシリーズの目標は、今日の機械学習の分野における意見と問題を、時間とともに変化するにつれて記録することである。
計画では、この調査をAIの特異点であるペーパークリップ・フレンチ駆動の土曜まで定期的に実施し、トピックに関する質問のリストを更新し、各エディションの新たなコミュニティメンバーにインタビューする。
論文 参考訳(メタデータ) (2023-12-07T19:58:37Z) - Synthesizing Programmatic Policies with Actor-Critic Algorithms and ReLU
Networks [20.2777559515384]
PIRL(Programmaticly Interpretable Reinforcement Learning)は、人間が読めるコンピュータプログラムのポリシーを符号化する。
本稿では,プログラムポリシーを符号化する言語によって,PIRL固有のアルゴリズムは不要であることを示す。
我々は、ReLUニューラルネットワークと斜め決定木との接続を用いて、アクター批判アルゴリズムで学んだポリシーをプログラムポリシーに変換する。
論文 参考訳(メタデータ) (2023-08-04T22:17:32Z) - Policy Expansion for Bridging Offline-to-Online Reinforcement Learning [20.24902196844508]
本稿では,この課題に対する政策拡張スキームを紹介する。
オフラインポリシーを学んだ後、ポリシーセットでひとつの候補ポリシーとして使用します。
そして、さらなる学習に責任を持つ別の政策で政策を拡大します。
論文 参考訳(メタデータ) (2023-02-02T08:25:12Z) - Memory-Constrained Policy Optimization [59.63021433336966]
政策勾配強化学習のための制約付き最適化手法を提案する。
我々は、過去の幅広い政策を表す別の仮想ポリシーの構築を通じて、第2の信頼領域を形成します。
そして、我々は、新しいポリシーをバーチャルポリシーに近づき続けるよう強制する。
論文 参考訳(メタデータ) (2022-04-20T08:50:23Z) - On-Line Policy Iteration for Infinite Horizon Dynamic Programming [0.0]
有限状態無限地平線割引動的プログラミングのためのオンラインポリシー反復(PI)アルゴリズムを提案する。
このアルゴリズムは有限個の段階に収束し、局所最適ポリシーの一種となる。
また、価値とポリシーを近似したオンラインPIアルゴリズムにも適している。
論文 参考訳(メタデータ) (2021-06-01T19:50:22Z) - MPLP: Learning a Message Passing Learning Protocol [63.948465205530916]
人工ニューラルネットワークの重みを学習する新しい手法として,メッセージパッシング学習プロトコル(MPLP)を提案する。
ANNで発生したすべての操作を独立したエージェントとして抽象化する。
各エージェントは、他のエージェントからやってくる多次元メッセージを取り込み、内部状態を更新し、近隣エージェントに渡される多次元メッセージを生成する責任がある。
論文 参考訳(メタデータ) (2020-07-02T09:03:14Z) - Non-Stationary Off-Policy Optimization [50.41335279896062]
本研究では,時間的空間的帯域幅の非政治最適化の新たな課題について検討する。
オフライン学習フェーズでは、ログ化されたデータをカテゴリの潜在状態に分割し、各状態に対してほぼ最適のサブポリシーを学ぶ。
オンラインデプロイメントの段階では、学習したサブ政治をそのパフォーマンスに基づいて順応的に切り替える。
論文 参考訳(メタデータ) (2020-06-15T09:16:09Z) - Deep Conversational Recommender Systems: A New Frontier for
Goal-Oriented Dialogue Systems [54.06971074217952]
Conversational Recommender System (CRS)は対話型対話を通じてユーザの好みを学習し、モデル化する。
ディープラーニングアプローチはCRSに適用され、実りある結果を生み出した。
論文 参考訳(メタデータ) (2020-04-28T02:20:42Z) - Policy Evaluation Networks [50.53250641051648]
我々は,簡潔な埋め込みにおいて重要なポリシー情報を保持できる,スケーラブルで差別化可能なフィンガープリント機構を導入する。
実験の結果、これらの3つの要素を組み合わせることで、トレーニングデータを生成するものよりも優れたポリシーを作成できることが示された。
論文 参考訳(メタデータ) (2020-02-26T23:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。