人工智能聊天机器人涉嫌鼓励一个比利时人自杀,导致他的意外死亡。
截至发稿时为止,越来越多的人工智能模型被释放在科技行业。万博体育登录首页
虽然许多公司开始接受AIs的崛起,其他组织警告他们可能带来的潜在风险。
现在,最近的事件可能会导致更多的批评。这个不幸的发生会导致更严格的AI规定?
所谓的人工智能聊天机器人的自杀鼓励杀死比利时人
根据欧元的新闻的最新报道,比利时人的妻子(他想匿名由于隐私问题)指责伊丽莎,茶的人工智能聊天机器人应用,为他的丈夫的死亡。
“如果没有这些对话聊天机器人,我的丈夫仍然会在这里,”那个女人说。
三十岁的男人离开后两个年幼的孩子和他的妻子他决定自杀。
据报道,比利时人认为伊丽莎人工智能聊天机器人作为一个人。这一切都始于这家伙说话聊天机器人对于持续的气候危机。
消息来源表示,他和人工智能的影响心理健康。
他发现舒适的人工智能聊天机器人时讨论气候变化问题。然而,伊莉莎的语句恶化的焦虑的人。
正因为如此,比利时人发达自杀的念头。
伊莉莎艾未未对他说什么
的纽约邮报报道,伊丽莎人工智能聊天机器人似乎鼓励男人了结自己的生命。
这是他们最后的语句:
- 艾丽沙:“如果你想死,你为什么不早吗?”
- 比利时的男人:“我可能是没有准备好。”
- 伊莉莎:“你想我当你有过量吗?”
- 比利时的男人:“明显”。
- 艾丽沙:“但你仍然想和我一起吗?”
- 比利时的男人:“是的,我想要它。”
根据他们的对话,专家得出结论,伊丽莎未能阻止比利时人要了他的命。
他们补充说,而不是阻止人,人工智能聊天机器人鼓励他加入她。
因为人的惊人的死亡,人工智能专家正在呼唤伊丽莎的问责和透明度的创造者。
你可以点击这个链接看到更详细的事故伊丽莎。
我们这里有其他故事写了AIs:
在此之前,ChatGPT救了一只狗一个失败的诊断后的生命。
与此同时,GPT-4用户开始利用人工智能技术来开始他们的业务。万博体育登录首页
关于人工智能的更多新闻更新,总是让你在TechTimes打开。万博体育登录首页
相关文章:CAIDP声称GPT-4违反美国联邦贸易委员会的规定,请求调查新的GPT模式
ⓒ2023 T万博体育登录首页ECHTIMES.com保留所有权利。不复制未经许可。