根据巴斯大学和德国达姆施塔特工业大学的一项新研究,ChatGPT和其他大型语言模型(llm)没有独立学习或获得新技能的能力,不会对人类的生存构成威胁。

作为第62届计算语言学协会年会(acl2024)会议记录的一部分,这项研究表明,尽管法学硕士可以遵循指导并展示语言能力,但如果没有明确的指导,他们无法掌握新技能。因此,这些模型被认为是固有的可控、可预测和安全的。

该报告的新闻稿发布在尤里卡警报网站上。

研究小组得出结论,尽管llm在越来越大的数据集上进行了训练,但llm可以继续部署,而不会出现重大的安全问题。然而,这项技术仍然存在被滥用的风险。

巴斯大学(University of Bath)计算机科学家、该研究的合著者哈里什·塔亚尔·马达布希(Harish Tayyar Madabushi)博士说:“这种类型的人工智能对人类构成威胁的主流说法,阻碍了这些技术的广泛采用和发展,也转移了人们对需要我们关注的真正问题的注意力。”

由达姆施塔特工业大学的Iryna Gurevych教授领导的研究小组进行了实验,以测试法学硕士完成他们以前从未遇到过的任务的能力,即所谓的“紧急能力”。

虽然法学硕士可以在没有明确编程的情况下回答有关社会情境的问题,但研究人员发现,这是由于模型使用了“情境学习”(ICL),即他们根据提供给他们的示例完成任务。

Tayyar Madabushi博士指出,“人们一直担心,随着模型变得越来越大,它们可能会不可预测地解决新问题,对推理和规划等危险能力构成威胁。”我们的研究表明,这种恐惧是站不住脚的。”

这项研究的发现挑战了全球顶级人工智能研究人员对法学硕士潜在生存威胁的担忧。然而,研究小组强调了解决现有风险的重要性,例如假新闻的产生和欺诈可能性的增加。

古列维奇教授补充说:“我们的研究结果并不意味着人工智能根本不是威胁。相反,我们表明,所谓与特定威胁相关的复杂思维技能的出现并没有证据支持。未来的研究应该关注这些模型带来的其他风险。”

根据巴斯大学和德国达姆施塔特工业大学的一项新研究,ChatGPT和其他大型语言模型(llm)没有独立学习或获得新技能的能力,不会对人类的生存构成威胁。

作为第62届计算语言学协会年会(acl2024)会议记录的一部分,这项研究表明,尽管法学硕士可以遵循指导并展示语言能力,但如果没有明确的指导,他们无法掌握新技能。因此,这些模型被认为是固有的可控、可预测和安全的。

该报告的新闻稿发布在尤里卡警报网站上。

研究小组得出结论,尽管llm在越来越大的数据集上进行了训练,但llm可以继续部署,而不会出现重大的安全问题。然而,这项技术仍然存在被滥用的风险。

巴斯大学(University of Bath)计算机科学家、该研究的合著者哈里什·塔亚尔·马达布希(Harish Tayyar Madabushi)博士说:“这种类型的人工智能对人类构成威胁的主流说法,阻碍了这些技术的广泛采用和发展,也转移了人们对需要我们关注的真正问题的注意力。”

由达姆施塔特工业大学的Iryna Gurevych教授领导的研究小组进行了实验,以测试法学硕士完成他们以前从未遇到过的任务的能力,即所谓的“紧急能力”。

虽然法学硕士可以在没有明确编程的情况下回答有关社会情境的问题,但研究人员发现,这是由于模型使用了“情境学习”(ICL),即他们根据提供给他们的示例完成任务。

Tayyar Madabushi博士指出,“人们一直担心,随着模型变得越来越大,它们可能会不可预测地解决新问题,对推理和规划等危险能力构成威胁。”我们的研究表明,这种恐惧是站不住脚的。”

这项研究的发现挑战了全球顶级人工智能研究人员对法学硕士潜在生存威胁的担忧。然而,研究小组强调了解决现有风险的重要性,例如假新闻的产生和欺诈可能性的增加。

古列维奇教授补充说:“我们的研究结果并不意味着人工智能根本不是威胁。相反,我们表明,所谓与特定威胁相关的复杂思维技能的出现并没有证据支持。未来的研究应该关注这些模型带来的其他风险。”