上次更新于2024-05-27 10:41
OpenAI和其他AI领导者认为,机器智能中的新飞跃将需要新的计算机硬件。这些建议之一是将GPU直接与光线连接起来的想法。当前,当计算机和数据中心的芯片之间训练AI算法时,数据通过电信号移动。但是,光学信号之间的转换会产生通信瓶颈。
一家名为LightMatter的初创公司提出了一项技术,通过使用光学链接直接连接数十万或数百万的GPU,可以减少这种瓶颈并显着提高芯片之间的数据运动速度。这项技术称为“通道”,并允许通过硅构建的光学(光子)互连与GPU的晶体管直接接口。该公司声称,这将允许在芯片之间以正常带宽的100倍的速度之间的数据传输。
LightMatter首席执行官尼克·哈里斯(Nick Harris)表示,通道将于2026年准备就绪,允许超过100万个GPU并行同时运行,从而实现了AI算法,这些AI算法超出了当今的最前沿。
OpenAI首席执行官Sam Altman还有兴趣建立更大,更快的数据中心,OpenAI和Microsoft向计划汇报了Stargate,这是一个耗资1000亿美元的数据中心,拥有数百万芯片。
大型半导体公司(例如GlobalFoundries)还宣布了与LightMatter建立合作伙伴关系,重新考虑大型AI项目的布线可以消除开发更智能算法的主要瓶颈。
NVIDIA宣布了最新的AI培训芯片“ Blackwell”,作为AI项目的GPU的主要供应商。它将以“超级芯片”的形式出售,其中包括使用公司新的高速通信技术NVLink-C2C连接的两个Blackwell GPU和传统CPU处理器。
LightMatter的努力是小型企业和小型企业正在努力重新考虑Openai Chatgpt之类的关键硬件的示例。
[新闻评论]
人工智能(AI)的进步需要计算机硬件的演变。特别是,AI训练需要巨大的计算能力,并且对超级计算机进行扩展至关重要。但是,当前技术使用电信号在芯片之间移动数据,这是主要的瓶颈。为了解决此问题,一家名为LightMatter的初创公司提出了通道,该技术使用光学链接直接连接GPU(图形处理单元)。
这项技术可以通过用光代替电信号,从而大大提高数据移动速度。具体而言,据说,芯片之间的数据传输将以正常带宽的100倍。这允许超过100万个GPU同时并行运行,从而大大提高了AI培训所需的计算能力。
希望这项技术的引入能够进一步加速AI的发展。例如,OpenAI的GPT-4使用了20,000多个GPU,但是如果实现LightMatter的技术,则可以以超过该水平的规模进行AI培训。这意味着它将能够开发更复杂,更先进的AI算法,使您更接近实现AI,即所谓的人工通用智力(AGI),它超越了人类的智能。
但是,实施这项技术也存在一些挑战。例如,使用光学链接和现有基础架构的兼容性问题的数据中心设计。此外,这种先进技术的开发和引入巨额成本会产生,因此需要考虑其成本效益。
此外,AI的加速发展可能会引起新的社会和道德问题。例如,通过人工智能增加工作自动化可能会导致更严重的就业问题。我们还需要考虑高级AI会对人类意图采取行动的风险。
总之,LightMatter提出的技术在AI的开发中具有巨大的潜力,但是它需要克服技术,经济和社会挑战才能实现这一目标。随着技术的进步,找到解决这些挑战的解决方案对于AI的合理发展至关重要。
