Google Cloud 对其 Gemini 生成人工智能产品进行了一系列升级,包括将 Gemini 1.5 Flash 和 Pro 推向普遍可用状态、推出 Imagen 3 预览版和上下文缓存功能的公开预览版。
Google Cloud 首席执行官托马斯·库里安表示,解决方案提供商“正在创造巨大的商业机会和业务,因为我们看到来自世界各地的许多公司对这项技术的需求”。
随着与微软等竞争对手争夺 GenAI 霸主地位的战斗愈演愈烈,这家总部位于加州山景城的科技巨头在周四的博客文章中公布了有关其 Vertex AI 机器学习平台的增强功能。
在一次虚拟新闻发布会上,当被问及 Google Cloud 的服务主导合作伙伴时,首席执行官 Thomas Kurian(如图)表示,系统集成商和其他解决方案提供商“正在构建巨大的商业机会和业务,因为我们看到来自世界各地的许多公司对这项技术的需求。”
Kurian 表示:“我们一直说,我们通过 Vertex 和我们的模型提供的是供组织构建应用程序的平台。许多公司都想要解决方案。解决方案正在使用我们的模型来改善客户服务,使用我们的模型来改善他们的内部流程,使用模型来改变他们与供应商的合作方式。”
谷歌发布的升级内容包括 Gemini 1.5 Flash 和 Gemini 1.5 Pro 的全面上市。
该供应商将该 AI 模型定位为为用户提供更低的延迟、更具竞争力的价格和 100 万个令牌的上下文窗口。
该科技巨头将 Gemini 1.5 Flash 定位为可扩展零售聊天代理、文档处理、可合成整个存储库和其他用例的研究代理的人工智能。
据 Google Cloud 称,Gemini 1.5 Pro 现已推出,其窗口高达 200 万个标记。相比之下,处理 6 分钟的视频可能需要超过 10 万个标记,而大型代码库则需要超过 100 万个标记。
据 Google Cloud 介绍,1.5 Pro 型号可以在多行代码中查找错误、在研究库中查找信息并分析数小时的音频和视频。
与此同时,Google Cloud 表示已将 Imagen 3 图像生成基础模型移至预览版,供 Vertex AI 早期访问用户使用。
据谷歌云介绍,Imagen 3 承诺比上一代产品提高 40% 的生成速度,并提高快速理解、指令遵循、照片般逼真的人群生成以及图像内的控制测试渲染能力。
该模型还具有多语言支持、多种纵横比支持以及 Google DeepMind 的 SynthID 数字水印等内置安全功能。
据 Google Cloud 称,该公司已向全球研究人员和开发者发布了 Gemma 2 轻量级开放模型。7 月份,Vertex AI 用户将可以访问 Gemma 2。
据谷歌云介绍,该模型有 90 亿和 270 亿个参数大小,比上一代更强大、更高效。
Google Cloud 已开始为 Gemini 1.5 Pro 和 Gemini 1.5 Flash 用户推出公开预览版上下文缓存功能。
上下文缓存旨在减少输入成本并利用经常使用的上下文的缓存数据,从而有可能简化长上下文应用程序的生产部署。
Google Cloud 已通过允许列表全面提供预配置吞吐量,让用户能够扩展第一方 Google 模型的使用。据 Google Cloud 称,预配置吞吐量还可确保生产工作负载的可预测性和可靠性。
下个季度,Vertex AI 将为地面 AI 代理提供一项服务,该服务使用专门的第三方数据,可能会减少错误结果。Kurian 在电话会议上表示,这项服务将于下个季度推出。
高保真接地目前处于实验预览阶段,它使金融服务、医疗保健和保险等数据密集型行业的用户能够仅根据提供的上下文而不是模型的世界知识来生成响应。
据 Google Cloud 介绍,该功能应该有助于汇总多个文档、根据一组财务数据提取数据或处理一组预定义的文档。高保真模式由经过微调的 Gemini 1.5 Flash 版本提供支持。
谷歌云正在深化与人工智能公司 Mistral 的合作,承诺在夏季将 Mistral Small、Mistral Large 和 Mistral Codestral 添加到 Vertex AI Model Garden。
该供应商透露,它正在将其机器学习处理承诺扩展到另外八个国家,其中四个国家将在 2024 年实现。Google Cloud 并未透露这些国家是哪些。目前,Google Cloud 在 23 个国家/地区提供静态存储数据的数据驻留保证,包括卡塔尔、澳大利亚、西班牙、以色列和印度。