高通吧 关注:179,585贴子:4,649,934
  • 26回复贴,共1

最近各种开源llm项目出现了,如果支持apple Silicon

只看楼主收藏回复

最近各种开源llm项目出现了,如果支持apple Silicon,苹果岂不是起飞,目前有斯坦福大学开源的羊驼,清华的chatglm,还有最近一开源在github直接起飞的minigpt4,这些llm非常吃大显存,显存小的卡压根跑不起来,苹果的uma恰好是个大优势,m ultra系列64g,extreme可能是128g,用来跑llm也太香了


IP属地:广东来自Android客户端1楼2023-04-29 22:22回复
    果子现在适配pytorch了吗?


    IP属地:江苏来自Android客户端2楼2023-04-29 22:28
    收起回复
      2025-06-23 19:03:02
      广告
      主要是目前大部分ai模型都是以cuda为基础优化的,适配估计效率也是问题


      IP属地:江苏来自Android客户端3楼2023-04-29 22:29
      收起回复
        价格比老黄都夸张吧


        IP属地:湖北来自Android客户端4楼2023-04-30 07:13
        收起回复


          IP属地:浙江来自iPhone客户端5楼2023-04-30 08:01
          回复
            ultra系列就有128GB…


            IP属地:塞尔维亚来自iPhone客户端6楼2023-04-30 21:51
            回复
              64g的ultra价格同样远超nv消费卡


              IP属地:江苏来自手机贴吧7楼2023-04-30 21:55
              收起回复
                冷知识是2w块可以搞一个4090


                IP属地:浙江来自iPhone客户端8楼2023-05-16 13:50
                收起回复
                  2025-06-23 18:57:02
                  广告
                  果子算力瓶颈更大吧 总不能跑个模型等十天半个月吧


                  来自iPhone客户端9楼2023-05-29 10:17
                  收起回复