小米civi2中框材質(zhì)(小米5中框材質(zhì))
2024-09-27
更新時(shí)間:2024-10-03 14:56:21作者:佚名
AMD發(fā)布了自己的首個(gè)小語(yǔ)言模型(SLM),名為“AMD-135M”。
相比于越來(lái)越龐大的大語(yǔ)言模型(LLM),它體積小巧,更加靈活,更有針對(duì)性,非常適合私密性、專(zhuān)業(yè)性很強(qiáng)的企業(yè)部署。
AMD-135小模型隸屬于Llama家族,有兩個(gè)版本:
一是基礎(chǔ)型“AMD-Llama-135M”,擁有多達(dá)6700億個(gè)token,在八塊Instinct MIM250 64GB加速器上訓(xùn)練了六天。
二是延伸型“AMD-Llama-135M-code”,額外增加了專(zhuān)門(mén)針對(duì)編程的200億個(gè)token,同樣硬件訓(xùn)練了四天。
它使用了一種名為“推測(cè)解碼”(speculative decoding)的方法,通過(guò)較小的草稿模型,在單次前向傳播中生成多個(gè)候選token,然后發(fā)送給更大的、更精確的目標(biāo)模型,進(jìn)行驗(yàn)證或糾正。
這種方法可以同時(shí)生成多個(gè)token,不會(huì)影響性能,還可以降低內(nèi)存占用,但因?yàn)閿?shù)據(jù)交易更多,功耗也會(huì)增加。
AMD還使用AMD-Llama-135M-code作為CodeLlama-7b的草案模型,測(cè)試了推測(cè)解碼使用與否的性能。
比如在MI250加速器上,性能可提升最多約2.8倍,銳龍AI CPU上可提升最多約3.88倍,銳龍AI NPU上可提升最多約2.98倍。
AMD-135M小模型的訓(xùn)練代碼、數(shù)據(jù)集等資源都已經(jīng)開(kāi)源,遵循Apache 2.0。
按照AMD的說(shuō)法,它的性能與其他開(kāi)源小模型基本相當(dāng)或略有領(lǐng)先,比如Hellaswag、SciQ、ARC-Easy等任務(wù)超過(guò)Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy等任務(wù)則基本類(lèi)似GTP2-124MN、OPT-125M。