一群伦理学家批评呼吁一个“暂停”Elon Musk支持的AI系统的发展,说这个提议会偏离实际造成的伤害人工智能今天系统。

US-INTERNET-SOFTWARE-AI-OpenAI
(照片:奥利弗DOULIERY /法新社通过盖蒂图片社)
这幅插图显示了ChatGPT标志显示在智能手机在华盛顿特区,2023年3月15日。——谷歌在2023年3月14日,开始让一些开发商和企业访问的人工智能了自去年推出则报道最多只能延缓微软方面的ChatGPT进度的关注

这就是伦理学家不得不说

超过2000人签名的信中,包括麝香和图灵奖获得者Yoshua Bengio,未来的生活研究所呼吁暂停6个月的最低“训练比GPT-4 AI系统更强大。”

然而,伦理学家的集团,包括Timnit Gebru,艾米丽·m·本德安吉丽娜McMillan-Major,和玛格丽特·米切尔认为关注假设的风险“强大的数字思维”与“人类极少情报”忽略了真正的伤害造成的AI系统的部署。

他们说,这封信地址从这些系统没有一个持续的伤害,包括工人剥削,大量数据盗窃,和权力集中在少数人的手中,加剧社会的不公平。

伦理学家集团,目前DAIR研究所合作研究暴露AI-associated危害,认为呼吁一个“AI暂停”很危险,因为它会偏离规定执行透明度的必要性。

他们认为应当要求组织建立这些系统文件和公开训练数据和模型架构,并创建工具安全使用的责任应该在企业构建和部署生成系统。

读也:象棋传奇卡斯帕罗夫说谷歌AI和微软ChatGPT不是最高安全风险:说他担心糟糕的演员

需要包容

而他们一致认为,“这样的决定不得委托给未经选举的技术领导人,“他们还指出,这样的决定不应由学者经历一个“AI夏天,”在很大程度上是经济受惠于硅谷。万博体育登录首页

相反,他们声称,那些最影响人工智能系统必须听到在这段对话中,如移民受到“数字边境墙”,女性被迫穿特定的衣服,工人经历创伤后应激障碍而生成系统的滤波输出,为企业利润艺术家看到自己的作品被偷,演出人员刮来维持生计。

“目前竞赛向更大“人工智能实验”并不是一个预定路径,我们唯一的选择是跑多快,而是一组决定受利润动机。企业的行为和选择必须由监管保护人们的权益,“读取声明

“我们应该关注的非常真实和存在剥削实践公司声称,他们正在迅速集中力量,增加社会的不公平。”

相关文章:# HustleGPT挑战:GPT-4用户分享他们如何使用AI创业!你应该加入他们的行列吗?

署名
ⓒ2023 T万博体育登录首页ECHTIMES.com保留所有权利。不复制未经许可。