反差调教
性爱贴图
你的位置:反差调教 > 性爱贴图 > 亚洲美图 AMD发布首个AI小言语模子:6900亿token、测度解码提速3.88倍

亚洲美图 AMD发布首个AI小言语模子:6900亿token、测度解码提速3.88倍

发布日期:2024-10-03 22:18    点击次数:143

亚洲美图 AMD发布首个AI小言语模子:6900亿token、测度解码提速3.88倍

快科技 10 月 1 日音讯亚洲美图,AMD 发布了我方的首个小言语模子 ( SLM ) ,名为" AMD-135M "。

比拟于越来越遒劲的大言语模子 ( LLM ) ,它体积工整,愈加天真,更有针对性,非凡稳当奥密性、专科性很强的企业部署。

AMD-135 小模子从属于 Llama 家眷,有两个版块:

男同av

一是基础型" AMD-Llama-135M ",领有多达 6700 亿个 token,在八块 Instinct MIM250 64GB 加快器上磨练了六天。

二是蔓延型" AMD-Llama-135M-code ",荒谬加多了有利针对编程的 200 亿个 token,相通硬件磨练了四天。

亚洲美图

创建与部署经过

它使用了一种名为"测度解码" ( speculative decoding ) 的智商,通过较小的草稿模子,在单次前向传播中生成多个候选 token,然后发送给更大的、更精准的想法模子,进行考据或改动。

这种智商不错同期生成多个 token,不会影响性能,还不错裁减内存占用,但因为数据来回更多,功耗也会加多。

AMD 还使用 AMD-Llama-135M-code 当作 CodeLlama-7b 的草案模子,测试了测度解码使用与否的性能。

比如在 MI250 加快器上,性能可擢升最多约 2.8 倍,锐龙 AI CPU 上可擢升最多约 3.88 倍,锐龙 AI NPU 上可擢升最多约 2.98 倍。

测度解码

AMD-135M 小模子的磨练代码、数据集等资源皆也曾开源,盲从 Apache 2.0。

按照 AMD 的说法,它的性能与其他开源小模子基本相称或略有当先,比如 Hellaswag、SciQ、ARC-Easy 等任务当先 Llama-68M、LLama-160M,Hellaswag、WinoGrande、SciQ、MMLU、ARC-Easy 等任务则基本肖似 GTP2-124MN、OPT-125M。

亚洲美图

Powered by 反差调教 @2013-2022 RSS地图 HTML地图

Copyright Powered by站群系统 © 2013-2024