消费者团体在13个欧洲国家正在敦促监管机构推出调查生成人工智能带来的潜在风险,如ChatGPT和执行现有法律保护消费者。

行动呼吁恰逢Forbrukerradet发布的一份新报告,挪威BEUC消费者组织和成员,这凸显了许多风险生成的人工智能,识别现有的保护法规,确定进一步规则需要发展的领域。

人工智能
(照片:奥特曼Gerd Pixabay)

欧盟敦促调查生成人工智能

副总经理乌苏拉Pachl BEUC,强调关注周围生成的人工智能系统ChatGPT,并指出潜在的欺骗、操纵和伤害的人。

也有担心的传播虚假信息,放大的偏见,和欺诈活动促进这样的人工智能系统。

“我们呼吁安全、数据和消费者保护部门开始调查现在而不是悠闲地等待消费者各种各样的损害发生之前采取行动。这些法律适用于所有的产品和服务,是他们AI-powered与否,当局必须执行,“Pachl在一份声明中说

消费者组织敦促安全、数据和消费者保护部门及时启动调查而不是等待消费者的伤害发生。

他们强调,现有的法律适用于所有的产品和服务,包括那些由AI,当局实施严格的必要条件。

即将到来的全面监管正在开发的人工智能系统是至关重要的,以确保欧盟消费者保护。监管主体所有AI系统,包括生殖AI,公众监督和重申公共当局的控制。

敦促议员们要求任何生成的输出生成人工智能系统是安全的,消费者公平、透明。

BEUC已经写信给消费者安全、消费者保护部门4月,敦促他们进行调查,由于生成的人工智能模型的快速扩散ChatGPT和与它们的部署相关的潜在危害。

欧洲数据保护委员会已经成立了一个工作组来检查ChatGPT特别。

读也:德州联邦法官在法庭上实现措施,防止AI-Generated参数

总结AI风险

报告Forbrukerradet发表的提供了一个总结当前和新兴的挑战,生成人工智能带来的风险和危害。

这些挑战包括关注相关权力,透明度和问责制,某些AI开发者已经限制外部审查,使其难以理解的数据收集方法和决策过程。

报告还突出的实例错误或不准确的输出,生成人工智能系统可以生成内容没有理解上下文,可能导致伤害。

此外,报告地址操作或欺骗的消费者通过使用人工智能聊天机器人情感的语言和语音模式。

偏见和歧视源于偏见的数据集,以及隐私,个人诚信,和与生成人工智能相关安全漏洞,也强调了意义重大的担忧。

根据这些发现,消费者团体敦促监管机构立即采取行动,调查和处理生成人工智能带来的风险,同时保证遵守现有的法规和开发健壮框架为未来的人工智能系统。

相关文章:通信助理GrammarlyGO旨在节省你的时间在一个广泛的编写任务

署名
ⓒ2023 T万博体育登录首页ECHTIMES.com保留所有权利。不复制未经许可。