人工智能 频道

部署LLM之前要考虑的5件事

  如果螺丝刀是由当今科技行业发明的,那么它将被广泛用于各种任务,包括锤钉。自ChatGPT首次亮相以来,对大型语言模型(LLM)的狂热和强烈反对。事实上,鉴于该技术经常缺乏真实性,许多对该技术的适应似乎被挪用,其能力被过度高度。这并不是说LLM没有很多很好的用途,但你应该在全力以赴之前回答一些关键问题。

  LLM会更好,还是至少等同于人类的反应?

  有人喜欢那些不回答网站首页上还没有的问题的客户服务聊天机器人吗?另一方面,与客户服务部门中刚刚阅读脚本而无权提供帮助的人交谈同样令人沮丧。任何LLM的部署都应测试它是否等于或更好,以取代聊天机器人或人类响应。

  责任暴露是什么?

  在我们的诉讼社会中,任何新流程或技术都应根据其法律风险的潜力进行评估。有明显的谨慎之处,如医疗、法律或金融,但LLM生成的答案如何引导人们采取误导性、不恰当或更糟糕的政策或建议?糟糕的公司政策往往会导致集体诉讼。通过扩大客户互动的规模,训练不当或受限的LLM可能会造成更大的意外责任。

  LLM真的更便宜吗?

  当然,衡量您的订阅和使用ChatGPT等一般LLM很容易,但更具体的自定义系统可能比计算能力更高的成本更高。维护和调试系统的员工和其他基础设施怎么样?您可以以一名人工智能专家的价格雇用相当多的客户服务代表。此外,ChatGPT和类似服务目前似乎得到了投资补贴。大概在某个时候,他们会想盈利,然后你的成本可能会上升。那个LLM真的更便宜吗?在你的系统生命周期内,它会一直这样吗?

  你将如何维护它?

  大多数企业LLM系统将在特定数据集中接受定制培训。LLM所依赖的神经网络的一个缺点是,它们出名的很难调试。随着技术的进步,LLM可能会发展出修改、删除或“忘记”它所学到的虚假内容的能力。但现在,不学习可能相当困难。您定期更新LLM并消除不良反应的流程或程序是什么?

  你的测试过程是什么?

  法学硕士的一个关键好处是,您不必为了模型提供可信的答案而预测问题的每一个可能的排列。然而,“可信”一词并不意味着正确。至少应该测试最常见的问题和各种排列。如果您的LLM将取代人类或现有的机器流程,那么人们今天提出的问题将是一个很好的数据集。

  有一句古老的谚语,来源可疑,大致翻译为“慢下来,我很着急”。并非所有东西都会成为LLM的用例,而且有充分证据表明,热情超过了能力。然而,通过衡量质量和经济性,并提出一些体面的维护和测试程序,您可以使LLM成为许多不同用例中的宝贵工具。

0
相关文章