微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2

吴厣 152 0

小猪号 9 月 12 日消息,微软研究院昨日发布了名为 phi-1.5 的全新预训练语言模型,共有 13 亿个参数,适用于 QA 问答、聊天格式和代码等等场景。

微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2-第1张图片-小猪号

微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2-第2张图片-小猪号

微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2-第3张图片-小猪号

phi-1.5 采用来自 StackOverflow 平台关于 Python 板块的 Q&A 内容、code_contests 中的竞争代码、合成 Python 教科书,gpt-3.5-turbo-0301 生成等各种数据集,此外还包括各种 NLP 合成文本组成的新数据源。

微软表示在测试常识、语言理解和逻辑推理的基准下,phi-1.5 的表现超出了大部分参数低于 100 万的模型。phi-1.5 在 AGIEval 得分上超过了拥有 70 亿参数、来自 Meta 的 llama-2;在带 LM-Eval Harness 的 GPT4AL 跑分套件中,可以媲美 70 亿参数的 llama-2。

微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2-第4张图片-小猪号

微软发布 13 亿参数小模型 phi-1.5:AGIEval 跑分优于 70 亿参数的 Meta Llama2-第5张图片-小猪号

小猪号在此附上链接,感兴趣的用户可以点击阅读。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,小猪号所有文章均包含本声明。

标签: 微软 AI Meta

抱歉,评论功能暂时关闭!