人工智能 频道

谷歌公布了生成人工智能的开源项目

  谷歌在Google Cloud Next 24上公布了三个用于构建和运行生成性人工智能模型的开源项目。该公司还在其MAXText项目中引入了新的大型语言模型,由JAX构建的LLMs。

  该公司表示,MaxText中新的LLM模型包括Gemma、GPT-3、Llama 2和Mistral,它们都支持Google Cloud TPU和Nvidia GPU。

  新推出的开源项目是MaxDiffusion、JetStream和Optimum-TPU。

  MaxDiffusion是稳定扩散等扩散模型的高性能和可扩展参考实现的集合。与MaxText模型一样,MaxDiffusion模型建立在JAX上,JAX是高性能数值计算和大规模机器学习的框架。

  JAX反过来与OpenXLA编译器集成,该编译器优化了数值函数,并大规模提供出色的性能,允许模型构建者专注于数学,并让软件推动最有效的实现。

  谷歌表示:“我们在云TPU上大幅优化了JAX和OpenXLA性能,并与英伟达密切合作,在大型云GPU集群上优化OpenXLA性能。”

  该公司还推出了Jetstream,这是一个支持XLA编译器的开源优化LLM推理引擎。

  “随着客户将他们的人工智能工作负载投入生产,对提供高性能的具有成本效益的推理堆栈的需求越来越大。Google Cloud计算和ML基础设施总经理Mark Lohmeyer说:“JetStream帮助满足这一需求,并为使用JAX和PyTorch/XLA训练的模型提供支持,并包括对Llama 2和Gemma等流行开放模型的优化。”

  最后,谷歌的开源公告包括在拥抱社区为PyTorch用户推出Optimum-TPU。Optimum-TPU为培训和推理带来了谷歌云TPU性能优化。谷歌表示,它现在支持Gemma 2b模型,并很快支持Llama和Mistral。

0
相关文章