IT之家 5 月 4 日消息,在人工智能领域,各大阵营都在竞相让自己的大语言模型(LLM)能够在尽可能弱、尽可能便宜的硬件上运行。硬件性能越弱,运行大语言模型所需的功耗就越低。然而,有没有想过让一个 AI 模型在 1982 年推出的硬件上运行呢? 这正是 Maciej Witkowiak 在其新项目“Llama2.c64”中所尝试的,据IT之家了解,该项目的目标是让一个简单的 AI 在 Commodore 64 上运行。Witkowiak 对该项目的描述如下:Llama2.c64 是由 Maciej“YTM / Elysium”Witkowiak 使用 oscar64 移植到 Commodore 64 的,需要至少配备 2MB 扩展内存单元(REU)的 Commodore 64 才能运行。该项目运行的是一个 260KB 的 tinystories 模型,将 Llama2 的功能带到了独特的 C64 硬件环境中。需要注意的是,
“老当益壮”:AI 模型成功在 43 年前的 Commodore 64 电脑上运行
2025-05-04 00:00:00来源: 新浪人工智能
赞
你的鼓励是对作者的最大支持
- OpenAI计划将“星门”AI项目扩展到美国以外2025-05-07 00:00:00
- 苹果考虑在浏览器中添加AI搜索 势将挑战谷歌主导地位2025-05-08 00:00:00
- 黄仁勋称错过中国AI市场是巨大损失,美媒:系明确敦促美重新审视其对华芯片限制2025-05-08 00:00:00
- 苹果埃迪・库伊:AI 狂飙突进,iPhone 未来 10 年内恐被淘汰2025-05-08 00:00:00
- 这地完成首个框采项目AI智能辅助评标2025-05-07 00:00:00
- 微软AI PC应对关税冲击:最轻薄Copilot+来了,Surface电脑新品价更低2025-05-07 00:00:00
- 9块9的AI洗头:颠覆还是泡沫?2025-05-07 00:00:00
- 联想发布端侧AI新技术,宣布PC本地推理媲美 OpenAI-mini2025-05-07 00:00:00
- AI兴起让“数字永生”成为可能,用AI复活去世的人有多大意义?2025-05-07 00:00:00
- “我骂了孩子,就像爸妈20年前骂我时一模一样!”看完这篇我彻底清醒了(深度好文)2025-05-06 00:00:00