有人评论,GPT-4可被视作AGI(通用人工智能)的早期版本。Cerebras首席执行官安德鲁·费尔德曼(Andrew Feldman)曾表示,“通过与OpenAI的交谈,GPT-4将有大约100万亿个参数”。
图源:纽约大学 Tandon官网
据悉,一般情况下,一个正常人类的大脑约有800—1000亿个神经元,以及约100万亿个突触。而这些神经元与突触,几乎直接控制着一个人百年人生中的所有思想、判断及行为,而GPT-4拥有与人脑突触一样多的参数。那么,如此庞大规模的密集神经网络究竟具备着怎样的潜力?GPT-4是否具备人脑的能力?
值得关注的是,GPT-4,已经可以帮人类造芯片了!近期,纽约大学Tandon工程学院的研究人员使用简单的英语“对话”与 AI 模型制造了一个微处理芯片。这项研究被评论为:一项史无前例的成就,可以加快芯片开发速度,并允许没有专业技术技能的个人设计芯片。
实际上,此前诸多研究发现,GPT-4不仅精通语言,还能在数学、编程、视觉、医学、法律、心理等多领域的新任务和难题上表现出色,无需特别提示。而GPT-4仅凭19轮对话就能设计出芯片,其在这些任务上的表现能力接近人类水平,也正印证了本文开头:GPT-4接近通用人工智能(AGI)的门槛!
据悉,纽约大学研究团队的两名硬件工程师使用标准英语与ChatGPT-4“交谈”——一种旨在理解和生成类人文本类型的大型语言模型 (LLM)——以设计一种新型的微处理器架构。然后,研究人员将设计送去制造。
通常,开发任何类型的硬件——包括芯片,充当电子设备大脑的微型电子元件——都是从用普通语言描述硬件应该做什么开始的。经过专门培训的工程师然后将该描述翻译成硬件描述语言 (HDL),Verilog 就是一个例子,以创建允许硬件执行其任务的实际电路元件。
在这项研究中,LLM 能够通过来回对话生成可行的 Verilog。随后的芯片制造包括基准测试和处理器,使用称为tapeout的过程,在Skywater 130nm 穿梭机中,这是一种特定类型的半导体制造服务,通过Tiny Tapeout提供访问权限。
该研究团队表示,鉴于LLM在交互使用时表现最佳,他们进行了长时间的完全对话式案例研究,其中一位硬件工程师共同设计了一种新颖的基于8位累加器的微处理器架构。他们将基准测试和处理器发送到Skywater 130纳米穿梭机上进行流片,意味着这些“Chip-Chats”产生了世界上第一个用于流片的完全由AI编写的HDL。
纽约大学坦顿分校的研究助理教授兼研究团队成员哈蒙德皮尔斯表示:“这项研究产生了我们认为是第一个完全由 AI 生成的 HDL,用于制造到物理芯片中。” “一些人工智能模型,如 OpenAI 的 ChatGPT 和谷歌的 Bard,可以生成不同编程语言的软件代码,但它们在硬件设计中的应用尚未得到广泛研究。这项研究表明 AI 也可以使硬件制造受益,尤其是当它被用于对话时,你可以通过一种来回的方式来完善设计。”
也就是说,如果在现实环境中实施,在芯片制造中使用LLM对话可以减少HDL转换过程中的人为错误,有助于提高生产力,缩短设计时间和上市时间,并允许进行更具创意的设计。不过,他们也表示,需要进一步测试来识别和解决将AI用于芯片设计所涉及的安全考虑因素。
文章来自:https://www.eet-china.com/