大型语言模型(llm)引起了巨大的关注的能力产生类似人类的文本和执行各种语言学习任务。然而,一个新的研究大学的凯文·Matthe说道Caramancion Wisconsin-Stout探索llm能否有效地识别假新闻。

研究突出llm的性能进行了评价,包括OpenAI gpt 4.0 - 3.0和gpt聊天聊天,谷歌的吟游诗人/λ,和微软的Bing AI,对食用核查事实的新闻报道和评估的能力区分真的,假的,和部分正确/错误信息。

使用一个测试套件100从独立核实核查事实的新闻机构,根据模型评估精度相比,在分类新闻提供的事实验证机构。

Software-internet-US-INTERNET-SOFTWARE-AI-OPENAI
(照片:斯蒂芬妮雷诺/法新社通过盖蒂图片社)
这张照片说明显示了ChatGPT标志在一个办公室在华盛顿,华盛顿,2023年3月15日。ChatGPT应用背后的公司,培养出散文,诗歌或计算代码命令发布3月14日,2023年,一个期待已久的人工智能(AI)技术的更新,它说会比其前任更安全、更准确。万博体育登录首页

llm核实吗?

研究发现,OpenAIgpt的- 4.0演示了llm测试中性能优越。然而,重要的是要注意,所有模型仍落后于人类的事实,突显出宝贵的人类认知在检测错误。

错误信息虽然仍是一个紧迫的挑战在数字时代,可靠的事实验证工具和平台的发展一直是一个计算机科学家的优先事项。尽管进展,需要广泛采用和值得信赖的模型有效地打击错误信息。

Caramancion llm潜力的研究揭示了在解决这个问题上也强调结合的重要性人工智能功能与人类事实来达到最优的结果。

这项研究强调了需要llm的持续进步和人类认知的事实验证流程的集成。未来的研究可以探讨更广泛的假新闻场景来进一步评估llm的性能。

Caramancion的未来研究计划重点研究人工智能的进化能力,以及如何利用这些进步,认识到人类的独特的认知能力。

精炼检测方案,探索新的llm调查人类认知之间的共生关系和人工智能技术在新闻核实Caramancion关键领域的兴趣。万博体育登录首页

读也:专栏作家问ChatGPT自传,描述了它如何想出了许多错误

人工智能的幻觉

的问题人工智能的幻觉也可能是相关研究llm及其检测假新闻的能力。AI幻觉指情况人工智能模型产生虚假或误导性信息,似乎令人信服或准确但缺乏现实基础。

人工智能的可能性模型生成虚假信息一直关注许多专家。通过装备这些模型对于更多事实核查功能,AI幻觉的担忧可能会解决。

相关文章:AI-Detection工具国旗下作品从非英语Speakers-Does歧视吗?

署名
ⓒ2023 T万博体育登录首页ECHTIMES.com保留所有权利。不复制未经许可。