谷歌云 | 减少 Google Kubernetes Engine 冷启动延迟的 4 种方法

GKE 是 Google Cloud 的托管 Kubernetes 服务,可以让您更轻松地部署和维护复杂的容器化工作负载。在这篇文章中,我们将分享四种不同的技术来减少 GKE 上的冷启动延迟,以便您可以提供响应式服务。

Continue Reading谷歌云 | 减少 Google Kubernetes Engine 冷启动延迟的 4 种方法

谷歌云 | Google Cloud 移动应用:为您的云应用提供故障排除和管理的强大助手!

Google Cloud 移动应用是一款功能强大的工具,可以帮助您随时随地排查问题并管理云应用程序。使用该应用程序,您可以快速轻松地检查资源的状态、查看账单详细信息并对问题采取措施。

Continue Reading谷歌云 | Google Cloud 移动应用:为您的云应用提供故障排除和管理的强大助手!

谷歌云 | Dataflow 和 Vertex AI:可扩展高效的模型服务

Dataflow + Vertex AI 是为批处理和流式预测请求提供机器学习模型的强大组合。Dataflow 可以以实时和批处理模式处理数据,并且非常适合需要高吞吐量和低延迟的用例。Vertex AI 提供了一个部署和管理模型的平台,还提供了许多额外的好处,如用于模型监控的内置工具、利用优化的 Tensorflow 运行时和模型注册表。

Continue Reading谷歌云 | Dataflow 和 Vertex AI:可扩展高效的模型服务

谷歌云 | Duet AI 让洞察、聚类模型和可视化变得简单

我们都经历过这样的情况:淹没在数据的海洋中,努力驾驭复杂的管道,感觉数据令人头晕。管理大量充满不同工具和 Google 搜索的选项卡以及花费大量时间筛选数据和代码以创建满足您需求的模型所带来的挫败感,真的会让人失去数据发现的乐趣。 但是,有什么东西可以节省时间——甚至可能带来一点乐趣吗?它就是Duet AI!它将其视为您的个人数据科学指南,引导您了解 Google Cloud 的任何不熟悉的深度。

Continue Reading谷歌云 | Duet AI 让洞察、聚类模型和可视化变得简单

谷歌云 | BigQuery Omni 中的跨云物化视图支持大规模的多云分析

随着越来越多的组织采用多云数据架构,我们不断收到客户的一个最重要的请求,那就是如何在BigQuery中实现跨云分析,使其变得非常简单和具有成本效益。为了帮助客户实现跨云分析之旅,我们今天非常高兴地宣布 BigQuery Omni 跨云物化视图(即跨云 MV)的公共预览。跨云 MV 允许客户非常轻松地在 GCP 上从另一个云上的基础数据资源创建摘要物化视图。跨云 MV 会在基础表更改时自动和增量地进行维护,这意味着只需要进行最小的数据传输即可保持 GCP 上的物化视图同步。其结果是一种具有行业先进性、具有成本效益和可扩展能力的能力,使客户能够进行无摩擦、高效和经济的跨云分析。

Continue Reading谷歌云 | BigQuery Omni 中的跨云物化视图支持大规模的多云分析

谷歌云 | 在 Google Kubernetes Engine 上创建 SaaS 平台

软件即服务 (SaaS) 是希望为最终客户提供交钥匙且可靠的产品体验的软件供应商的首选交付方法。公司在构建 SaaS 产品时必须考虑许多因素,其中之一当然是用于运行 SaaS 应用程序的框架。由于现代软件开发使用软件容器,运行现代 SaaS 平台的一个自然且最受欢迎的选择是 Kubernetes,即流行的容器编排器。在这篇文章中,我们将回顾在Google Kubernetes Engine (GKE) 上构建 SaaS 平台时决定选择何种架构的基础知识。

Continue Reading谷歌云 | 在 Google Kubernetes Engine 上创建 SaaS 平台

Looker Studio | 带来强大的探索、更新鲜的数据和更快的过滤

Looker Studio 支持对临时数据进行自助分析,并与 Looker 一起为每月访问 Looker 系列产品的超过 1000 万用户做出贡献。今天,我们为分析师推出新方法,为业务用户提供探索数据和自助业务决策的选项,扩展所有用户分析和探索数据的方式,从而做出更快、更明智的决策。

Continue ReadingLooker Studio | 带来强大的探索、更新鲜的数据和更快的过滤

谷歌云 | Cloud TPU v5e GA正式推出!实现经济高效的 AI 模型训练

Google Cloud 于11月9日宣布了 Cloud TPU 平台的两项重要更新: 首先,在最新的 MLPerf™ Training 3.1 结果中,与上一代 TPU v4 相比,TPU v5e 在训练大型语言模型 (LLM) 方面表现出 2.3 倍的性价比提升。 其次,Cloud TPU v5e 现已普遍可用,Singlehost推理和Multislice训练技术也同时提供。这些进步为 Google Cloud 客户带来了成本效益、可扩展性和多功能性,可以使用统一的 TPU 平台来进行训练和推理工作负载。

Continue Reading谷歌云 | Cloud TPU v5e GA正式推出!实现经济高效的 AI 模型训练