对近期DeepSeek以低成本、非先进制程生产加速硬体即可打造性能可比多数科技业者的大型自然语言模型,IBM董事长暨执行长Arvind Krishina稍早回应表示DeepSeek的作法同时也证实IBM早先研究,认为针对特定需求最佳化调整的人工智慧技术,其背后成本最高能减少30倍,同时也预期能透过此作法让人工智慧更容易普及化应用,并且带动更高运算效率。
而亚马逊执行长Andy Jassy也指出随着DeepSeek的作法引起市场关注,预期接下来的人工智慧技术应用成本将大幅降低,并且让更多企业能轻易在其应用服务导入人工智慧技术,同时让市场对于人工智慧技术的需求增加。
同时,Andy Jassy更认为即使人工智慧技术应用成本下降,不代表企业对于人工智慧技术发展投入资源会减少,反而能让先前受限人工智慧技术导入成本过高的发展项目重新启动,预期能使整体市场对于人工智慧技术的需求增加。
在此之前,OpenAI执行长Sam Altman对于DeepSeek近期备受关注情况给予讚赏,但也强调本身仍会持续投入发展大型自然语言模型,更强调推动人工智慧技术发展的算力依然重要。
其他对于DeepSeek的看法,前Google执行长Eric Schmidt则认为DeepSeek的出现,意味中国业者能以更少资源与美国大型科技业者竞争,同时也呼吁美国扩大开源 人工智慧模型发展力道,借此在全球人工智慧技术竞争转折点取得优势,前Intel执行长Pat Gelsinger也在其对于DeepSeek的看法中提及开源重要性,更认为DeepSeek有助于重塑日渐封闭的人工智慧模型建置流程。

另外,人工智慧教母李飞飞的团队近期也以阿里巴巴通义千问的Qwen2.5- 32B-Instruct模型为基础,并且以Google DeepMind的Gemini 2.0 Flash Thinking实验版本进行蒸馏 (Distillation)处理,借此打造执行更为轻盈的S1模型,而整个训练过程仅使用16组NVIDIA H100加速器,总计耗时26分钟,更强调透过云端服务平台租赁相关运算基础设施的花费不到20美元,整个训练流程总花费更可控制在50美元内。
这意味接下来的人工智慧技术发展将会有更明显分层,大型科技业者依然会持续投入性能更高的大型自然语言模型,依然会朝向打造通用型人工智慧技术 (AGI)的目标前进,而更多应用则会倾向导入以客制化、最佳化等方式制作的人工智慧技术,借此让人工智慧能以更有效率、更实惠形式运作使用,同时也能加快人工智慧技术整体普及发展。
不过,DeepSeek迅速走红,同时也连带反应一些问题,出现不少「仿冒品」,借此窃取使用者个资、金钱,而不少借由开源模型「换皮」声称自制高效能人工智慧模型,借此吸引用户的情况也明显变多。
发表评论 取消回复