Transformer 后继有模!MSRA 提出全新大模型基础架构:推理速度 8 倍提升,内存占用减少 70% 论文提出新的Retention机制来代替Attention。来自微软亚研院和清华的研究人员,毫不讳言“野心”,大胆放话:RetNet实现了良好的扩展结果、并行训练、低成本部署和高效推理。... 人工智能 2023-07-19 290 #Transformer #微软AI #微软大模型
Transformer 作者出走谷歌创业,专攻通用人工智能,已获得 6500 万美元投资 这篇开山之作引用次数已高达4万,浏览新论文时经常会看到“(Vaswanietal.,2017)”的字样,以至于这个名字都快被刻进DNA了。... IT业界 2022-04-30 614 #Transformer #人工智能 #创业