News

Guangdong BAIDU Special Cement Building Materials Co.,Ltd
— 新闻中心 —

Intel新显卡卖爆!24GB大显存也在路上 AI玩家都来

实在有点Amazing啊。这两天GPU圈子产生了个事儿,被网友们探讨地津津有味——有一款显卡卖爆了。火到什么水平呢?就是一进货就被抢光。GPU求过于供实在曾经屡见不鲜了,但之以是此次能被热议起来,是由于这款产物背地的厂家。不是你认为的NVIDIA、AMD,而是……Intel。为什么会如斯?从玩家们的探讨中不难过出谜底——性价比够高,2000元价位就能在2K画质下畅玩3A游戏。The Verge也十分“直给”地赐与了一句评估:Intel终于在GPU上拿下了一次成功。而这款显卡,恰是Intel未几前宣布的第二代锐炫B580,售价仅2049元起。要晓得,NVIDIA 299美元的RTX 4060跟AMD 269美元的RX 7600,仅装备了8GB的VRAM。但Intel的锐炫B580不只价钱比它们低,还装备了12GB的VRAM跟192bit的显存位宽。即便是价钱更低的锐炫B570(219美元,下个月上市)也装备了10GB的VRAM。除此之外,另有一个更有意思的事件。固然锐炫是游戏显卡,但究竟是GPU啊,于是……也有一局部人买来开端搞AI了。而这,可能会让它将来的贩卖再增三分热度。这不,有人在Reddit上就分享了怎样在锐炫B580上搞AI绘图Comfy UI了:不只是团体用户的尝鲜,咱们还探听到有些企业曾经动手把Intel的显卡塞进包含任务站跟效劳器在内的商用盘算装备中了,详细搭配的“食谱”就是:Intel至强系列CPU+锐炫显卡。不外临时用的仍是Intel上一代的A770,作为上一代的旗舰型号,A770有着16G年夜显存,用在AI推理上,也算熟能生巧。据牢靠的新闻,如斯组合最为抢眼的上风,同样是“性价比”三字。而由此激发的,更值得探讨的一个话题应该是:花费级显卡搞AI,究竟行不可?起首能够看出来,无论团体仍是企业,买Intel花费级显卡来搞AI,基础都是来做AI推理的。现实上,推理算力需要正在飞速增加,年夜有超越练习算力需要之势。一方面,跟着行业热议的“预练习Scaling Law撞墙”了,像OpenAI o1/o3系列模子也开端依附增添推理算力进步模子才能。另一方面,AI利用落地的暴发也使得推理需要年夜幅增加,这些需要每每不强求算力的溢出乃至极致,即所谓硬需要不高,而是愈加重视实现够用的机能(包含并发度跟时延),以及与之同步的易获取、易安排、易应用跟本钱上能否够实惠。那么做AI推理为什么抉择Intel游戏显卡?正如后面剖析,性价比确定是一年夜斟酌要素。从硬件方面讲,即便是顶级的算力卡,单卡做AI推理在面临高并发等场景时,显存也会成为瓶颈,但进级到四卡、八卡本钱又会飙升。此时,Intel A770这种2000元价位就有16G年夜显存的型号,就成了统筹机能与本钱之选。从利用方面讲,良多场景实在对每秒token天生速率请求并不高,特殊是有流式传输等优化手腕,只有first token latency到位了,前面天生速率满意必定请求,休会就很好。这是咱们拿到的4张Intel锐炫A770显卡跑Qwen2.5 32B模子的演示Demo,来感触一下这个速率,是不是充足了?看到这里可能有人要问了,用Intel显卡跑AI,CUDA的成绩怎样处理?拿最风行的年夜模子推理框架之一vLLM来说,得益于开源软件的开展,其早已实现了高等其余形象跟封装,实在换用哪种硬件,用起来都没差太多。再加上Intel本人供给的开源oneAPI,就能做到很低的迁徙本钱。可能另有人要问了,那为什么不选公用AI推理减速器,比方风头正盛的Groq、Sambanova这些?这就要说到,多模态交互是当初AI利用的一年夜趋向,无论是与AI视频对话、数字人,仍是直播、短视频场景的一些利用,都同时会用到视频解码或图形衬着才能,这就非得是通用GPU弗成。公用减速器固然在特定义务上有上风,但在处置多样化需要时,通用GPU更具机动性。以是总结来看,用Intel显卡搞AI推理,算力够用,年夜显存另有,可行性就有了,性价比也有了,对现有营业来说,迁徙本钱更是幻想。前面能拿下多年夜市场,会不会成为一个趋向,就刮目相待了。Intel的曲线解围Intel花费级显卡被企业拿去搞AI推理了,Intel本人是什么立场?那确定是乐见其成的,并且相称器重。实在,Intel在两年前刚推出锐炫系列时就采用与友商差别的战略,允许证方面明白不限度数据核心应用。为了便利各人用好AI,Intel的软件团队始终没闲着,除了更新oneAPI,还在连续推出跟更新一系列开源东西,吸粉一直。比方减速库IPEX-LLM,可用于年夜模子的推理跟微调,在GitHub上曾经有6.8k star。以及低比特量化东西neural-compressor,也取得2.3k star。从IPEX-LLM也能够看出Intel对中国市场的器重,针对中国主流的开源年夜模子ChatGLM、Qwen、MiniCPM等都供给了适配,中文文档跟教程也做的比拟完美。为了便利各人抉择模子,Intel还在HuggingFace上保护了一个低比特量化模子的排行榜,设置好前提,就能够一键比拟并挑选出本人须要的模子。此中机能排名靠前的,不乏Intel本人着手量化的开源社区优良模子。这么看上去,Intel为AI开源社区做的浩繁奉献,给企业跟开辟者供给了方便,也是当初各人乐意实验Intel显卡的起因之一。最后,咱们还探听到一个内情新闻:Intel看到AI推理这个市场需要逐步扩展后,在后续产物战略上也有所调剂。2025年,Intel筹备推出Battlemage系列显卡的更年夜显存版本,其容量将增至24G。当前就是现有版本持续效劳于游戏等花费级市场,24G的更年夜显存版本对准“出产力市场”。“出产力市场”的目的用户涵盖了数据核心、边沿机房、教导科研跟团体开辟者等。领有更年夜显存的Intel显卡,不只可在AI推理需要上,也能在衬着跟视频编解码利用上做到比专业图形卡、任务站显卡性价比更高。还真别说,“从逢场作戏转向打工赢利”+“算力够用、显存保年夜”,很有可能会成为IntelGPU解围的一招妙棋。参考链接:[1]https://www.reddit.com/r/pcgaming/comments/1hh2dvn/intel_finally_notches_a_gpu_win_confirms_锐炫_b580/[2]https://www.techspot.com/news/105810-intel-launches-new-锐炫-battlemage-b580-b570-gaming.html[3]videocardz.com/newz/intel-will-not-prohibit-gaming-锐炫-gpu-use-in-data-centers[4] https://github.com/intel-analytics/ipex-llm[5] https://github.com/intel/neural-compressor[6] https://huggingface.co/spaces/Intel/low_bit_open_llm_leaderboard义务编纂:上方文Q文章内容告发 ]article_adlist-->   申明:新浪网独家稿件,未经受权制止转载。 -->
Tel
Mail
Map
Share
Contact