当前位置:首页 > 人工智能 > >

韩国科学技术院开发类人脑AI芯片 能超高速处理大型语言模型数据

韩国科学技术院开发类人脑AI芯片 能超高速处理大型语言模型数据
2024-03-07 10:49:02 来源:聚焦媒体网

据科学和信息通信部称,韩国科学技术院 (KAIST) 的研究人员开发了一种人工智能半导体,能够超高速处理大型语言模型 (LLM) 数据,同时显着降低功耗。

韩国信息通信技术部周三表示,韩国科学技术院内存处理研究中心的 Yoo Hoi-jun 教授领导的研究团队利用三星电子的 28 纳米制造工艺开发出了世界上第一款互补变压器人工智能芯片。

互补变压器人工智能芯片是一种模仿人脑结构和功能的神经形态计算系统。 研究团队利用视觉数据处理中常用的深度学习模型,成功实现了这种转换器功能,深入了解神经元如何处理信息。

该部表示,这项技术通过跟踪数据内的关系(例如句子中的单词)来学习上下文和含义,是 ChatGPT 等生成式人工智能服务的源技术。

周三,该研究团队在位于世宗的信息通信技术部总部展示了互补变压器人工智能芯片的功能。

研究团队成员 Kim Sang-yeob 在配备内置互补变压器 AI 芯片的笔记本电脑上使用 OpenAI 的 LLM GPT-2 执行了句子摘要、翻译和问答任务等各种任务 ,所有这些都不需要互联网连接。 结果,与在连接互联网的笔记本电脑上运行 GPT-2 相比,性能显着增强,任务完成速度至少快三倍,在某些情况下最多快九倍。

为了实现通常用于生成式 AI 任务的法学硕士,通常需要大量的图形处理单元 (GPU) 和 250 瓦的功率。 然而,韩国科学技术院的研究团队成功地使用尺寸仅为 4.5 毫米 x 4.5 毫米的紧凑型人工智能芯片来实现该语言模型。

Yoo 表示:“神经拟态计算是一项甚至像 IBM 和英特尔这样的公司都无法实现的技术,我们很自豪能够成为世界上第一个使用低功耗神经拟态加速器运行法学硕士的公司。”

他预测这项技术可能会成为设备上人工智能的核心组件,即使不需要互联网连接,也能促进人工智能功能在设备内执行。 由于其在设备内处理信息的能力,与依赖网络连接的基于云的人工智能服务相比,设备端人工智能可提供更快的运行速度和更低的功耗。

“最近,随着像 ChatGPT 这样的生成式 AI 服务的出现以及对设备端 AI 的需求,对 AI 芯片的需求和性能要求正在迅速增加。我们的主要目标是开发创新的 AI 半导体解决方案,以满足这些不断变化的市场需求。 特别是,我们的目标是专注于识别商业化过程中可能出现的其他问题并提供解决方案的研究,”Yoo 补充道。

研究团队表示,对于相同的任务,这种半导体仅使用 Nvidia GPU 的 1/625 功率,大小也仅为 1/41。

关键词:

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

投诉邮箱:Email:133 46734 45@qq.com

相关新闻