编程客栈(www.cppcns.cdcvgDfrcGwom) 7月7日消息:php日本电气,又称日电或 NEC,是一家总部位于东京都港区的跨国信息技术公司,英文全称为「Nippon Electric Company, Limited」,1983 年改为简称 NEC。作为住友集团的成员,NEC 专注于为商业企业和通信服务提供信息技术和网络产品。


(资料图片)

日本NEC公司社长森田隆之在今年六月表示,正在探讨独自开发能自动制作精巧文章及图像的生成式人工智能(AI),以新服务的形式提供给用户。

7 月 6 日,NEC 宣布本月开始将为日本市场提供生成 AI 服务,该服务可根据客户需求定制化。生成 AI 包括日本语言优化的大规模语言模型(LLM)。提供的服务包括针对生成 AI 所需的硬件、软件和咨询服务,命名为「NEC Generative AI Service」。

为了支持客户,NEC Generative AI Hub 团队提供了多种人才,包括提示工程师、咨询顾问和数据科学家等,旨在支持 NEC 的增长并为客户提供有价值的生成 AI 服务。

为了帮助客户更好地使用生成 AI,NphpEC 提供了名为「NEC Generative AI Framework」的软件解决方案,其中包括提示模板、问答强化和模型切换等功能。LLM 可以根据客户需求提供「微软 Azure OpenAI Service」或 NEC 开发的 LLM。

通过与微软的全球联盟,NEC 将在以 NEC 印西数据中心为核心的「Microsoft Azure ExpressRoute」上提供服务。结合 NEC 的 LLM、NEC Generative AI Framework 和可以在本地使用的硬件基础设施「NEC Generative AI Appliance Server」,可以创建低延迟且安全的 LLM 环境。

此外,NEC 推出了名为「NEC Generative AI Advanced Customer Program」的综合支持计划,旨在结合 NEC 的专业知识和客户的专业知识,为客户提供模型创建、生成 AI 软件开发和组织搭建等全方位支持。目前,已经有一些企业参与了该计划,计划通过企业间的交流创造新的商业模式。

NEC 开发了专门针对日本市场的日语优化的 LLM。根据使用日本语言理解基准测试(JGLUE)对 LLM 进行评估,它在知识问答方面达到 81.1%,在文档阅读理解方面达到 84.3%,性能在全球范围内属于较高水平。

相比海外顶级 LLM 的模型大小(参数大小)为 1750 亿,NEC 开发的 LLM 经过轻量化处理,模型大小仅为 130 亿,极具紧凑性。过去,性能出色的 LLM 需要 8 块 GPU,而 NEC 的 LLM 可以在仅搭载 1 块 GPU 的标准服务器上运行。

这使得基于 LLM 的业务应用可以具有良好的响应性能,并有助于减少业务运营中的电力消耗和服务器python成本。此外,可以实现本地部署,将 LLM 应用于对机密性要求较高的业务,或者快速创建针对客户定制的 LLM 模型。

NEC 已经在内部业务中广泛应用 LLM,如文档创作、内部系统开发和源代码生成等,以提高各种业务的效率。NEC 将继续推进基于基础模型开发针对客户特定数据和行业的 LLM 模型,并进一步提升基础模型的性能。

NEC 数据科学实验室的主要研究员 Masafumi Oyamada 进行了演示,展示了基于 LLM 的聊天工具原型「NEC Generative AI Framework Chat」。用户可以通过该工具输入问题并获得回答,还可以进行追问。此外,LLM 还可用于编程、文档生成和摘要等用途。

NEC 计划在未来三年内,在生成 AI 相关业务上实现 500 亿日元的销售额。

推荐内容