最近看到一篇文章探讨了通过不断要求大型语言模型(LLM)改进代码,能否使代码变得更好的问题,并通过实验展示了这一过程及其结果,以下是文章的核心内容概述:实验背景作者提到在2023
微wx笑2025-01-10【人工智能】阅读数 66评论数 0
CodeGeeX是一个具有130亿参数的多编程语言代码生成预训练模型。CodeGeeX采用华为MindSpore框架实现,在鹏城实验室“鹏城云脑II”中的192个节点(共1536个国产昇腾910 AI处理器)
微wx笑2022-11-12【编程工具】阅读数 209评论数 0