鸿海称,FoxBrain作为鸿海研究院AI推理LLM模型训练成果,不仅展现了强大的理解与推理能力,还能针对台湾使用者的语言风格进行优化,并在数学与逻辑推理测试中表现出色。
鸿海提到,鸿海研究院AI研究所在FoxBrain训练过程中,使用120张英伟达(Nvidia)H100绘图处理器(GPU),并透过英伟达Quantum-2 InfiniBand网络进行扩展,仅花约四个星期的时间完成,相较于近期其他公司所推出的推理模型,以更高效率,更低成本的模型训练方式为台湾AI技术发展树立新里程碑。
据路透社报道,鸿海将于3月中旬在英伟达GTC大会上,公布有关模型的更多细节。
延伸阅读
鸿海还说,未来将透过导入AI大型语言模型,优化智慧制造、智慧电动车、智慧城市等三大平台的数据分析效率,让FoxBrain成为驱动智慧应用升级的重要引擎,进一步提升公司营运效益。
台湾半导体巨擘鸿海星期一宣布,推出首款繁体中文人工智能(AI)大型语言模型,并称该模型虽与中国大陆AI公司深度求索(DeepSeek)的蒸馏模型仍有些微差距,但表现已相当接近世界领先水准。
鸿海星期一(3月10日)在官网发布新闻稿称,鸿海研究院推出首款繁体中文AI大型语言模型(LLM),内部开发代码FoxBrain;该模型以优异的运算成本,于四个星期内完成训练。FoxBrain模型原为内部应用而设计,涵盖数据分析、决策辅助、文书协作、数学、推理解题与代码生成等功能,后续将对外开源分享。
鸿海也在新闻稿中说,在测试结果方面,FoxBrain于数学领域较基础模型Meta Llama 3.1全面提升,相较于目前最好的繁体中文大模型Taiwan Llama,在数学测试中取得显著进步,并在数学推理能力上超越Meta目前已推出的同等级模型,虽与DeepSeek的蒸馏模型仍有些微差距,但表现已相当接近世界领先水准。