原阿里首席AI科学家贾扬清于11月16日再度发声,曝光国内某一新模型中潜藏的LLaMA架构,仅通过几处变量名的修改引起广泛关注。针对指责,贾扬清通过发布训练模型的过程详解,再次强调开源领域中“魔改”行为的危害。
在最新文章中,贾扬清强调开源的本质是相互合作,要达到共识并尊重差异,通过讨论设计、磨合观点形成共同前行的力量。他警告初入开源和better engineering领域者,强调单方面的“魔改”行为会导致技术体系的分裂,难以维护和协作,对创作者和使用者都将带来巨大问题。
贾扬清表示,“魔改一时爽,社区火葬场。”他强调,要取得真正的成就,就必须拥有与社区共同探讨、协作的心态。
11月14日,涉及的公司“零一万物”回应此事,开源团队总监Richard Lin承认修改Llama张量名称的不当行为,并宣布将按照外界建议将“修改后的张量名称从Yi改回LLaMA”。
11月15日,该公司公开了对Yi-34B训练过程的详细说明。同时,公司创始人李开复在朋友圈中转发了该说明,表示公司将继续在开源领域中学习,致力于持续进步,并强调全球大模型架构的逐步形成成为通用标准。
作品采用:
《
署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)
》许可协议授权