ChatGPT对标题并不陌生,在过去的几个月里为自己与一些恒星的话题。人工智能,这是建立在OpenAI GPT-3 AI的管道,利用强化学习模型来回答任何问题抛出,在对话的格式。

绝大多数的用户和大众公共,ChatGPT是一个新发现的社会图标。对于学生来说,这是一个自由通过评分内容,作为见证了其中几个在最近的新闻斯坦福大学的学生出来承认使用机器人在期末考试。微软具体来说,这是一个投资100亿美元向前,一个可能的计划与Bing和创建一个更强大的竞争对手谷歌的搜索引擎。

Arvind Narayanan,普林斯顿大学的计算机科学教授,ChatGPT无非是一个“废话生成器,一个藐视不一致,并经常不正确的内容,现在正在推动教育以外的领域,甚至到新闻。现在一个月在通讯题为“AI蛇油Narayanan解释了艾未未的“无法辨别真理”是其主要缺点之一,这一问题似乎已经超过它的许多用户的头像。

相关文章:中国的搜索引擎推出ChatGPT-Like人工智能服务

“ChatGPT惊人擅长听起来令人信服的任何可能的主题。但OpenAI清楚,没有真理的来源在训练,“解释Narayanan介绍。“这意味着使用ChatGPT目前的形式将是一个坏主意等应用教育或回答健康问题。尽管机器人经常给优秀的答案,有时候失败严重。总是令人信服,所以很难区分。”

甚至OpenAI本身承认ChatGPT没有上帝或知识专家,解释它帮助页面机器人“没有连接到互联网,也可以偶尔产生不正确的答案。”The firm highlights how ChatGPT has limited knowledge of events beyond 2021 and "may also occasionally produce harmful instructions or biased content."

Narayanan继续采访时他的想法标记,详细描述了CNET的如何使用ChatGPT在超过75个新闻文章证明显示几个与多个错误。虽然规定是对读者非常有害,鉴于CNET没有披露其使用机器人,这里的基本问题是在不断增长的过度依赖人工智能和工作流技术和活动,然而,人类仍然是最能够执行。万博体育登录首页

“这不是恶意的,但这是一种危险,我们应该更担心人们转向它,因为他们面临的实际约束,”纳拉亚南告诉标记。“当你把这与事实真理的工具没有一个好的概念,这是一个灾难。”

尽管“情报”绰号,人工智能在本质上仍然是人工。Narayanan的声明伴随类似的想法提出的大西洋的Ian Bogost比作谁ChatGPT一个玩具。在他的文章中,就解释了依赖ChatGPT不仅可以阻碍其洞察力和深度有限,但也可能“导致损失的真正人类连接。”To make matters even more complicated, Bogost didn't write that line - ChatGPT did as Bogost.

利用ChatGPT日常引发了许多伦理问题,最突出的是真实性。非常reasy,很难看到机器人偷走我们的工作在不久的将来,和Narayanan同意。它会花一些时间在这样一个概念发展外重量,但语言模型作为记者,教育者,甚至医生很难抓住目前的水平。因此,最好跟随布莱恩的鞋,看到ChatGPT,以及类似的人工智能,只是一个玩物。

现在,这是。

读也:OpenAI ChatGPT是开发一个iOS应用程序,演示版本共享在LinkedIn

ⓒ2023 T万博体育登录首页ECHTIMES.com保留所有权利。不复制未经许可。