在本教程中,我们将会介绍如何集成和使用 Locust 来测试在 Kubernetes 集群中运行的微服务,以下是将会涵盖的内容:,在继续之前,请确保您的环境满足要求;首先安装和部署 Docker、Kubernetes 和 Git。,在开始讲解如何使用 Locust 测试在 Kubernetes 集群上运行的微服务之前,我们需要准备和部署我们将在集群上测试的服务。这些服务如下图所示。该微服务应用包括以下组件:,要在本地部署上述设置,请按照以下步骤操作:,上述kubectl应用的YAML 文件中包含的服务和deployment:,GuestBook将在以下 URL 上提供访问入口:http://127.0.0.1:30625,您可以使用以下命令验证这一点:,性能和负载测试是软件生命周期中最热门的话题之一。这些测试可以为我们提供有关软件应用程序和基础设施设置的性能和健壮性所需的指标和KPI。Locust是可以用来执行用户行为负载测试的工具之一。它依赖流行的python编程语言来定义负载测试场景。这意味着可以执行一些条件行为或进行一些计算。Locust还支持在多个工作节点上运行分布式负载测试。该工具带有一个web界面,用于配置和运行有多种配置的预定义测试。在这篇博文中,我们将介绍使用Locust在分布式模型中测试Guestbook应用程序所需的步骤。为了实现这一目标,我们需要完成以下的内容。,我们需要用 Python 编写一些测试用例来测试 GuestBook 应用程序。应用程序界面简单明了,只有一个文本框和一个按钮,如下图所示。,,为了简单起见,我们将实现两个用例。,下面的 locust 文件可用于测试这些用例。,下一步是使用已定义的用例为 Locust 主从workers构建 Docker 镜像。这些 Docker 镜像稍后将用于在集群上部署 Locust 组件。,以下就是 Locust Docker 镜像文件结构。,我们的 Docker 镜像必须至少包含以下文件:,下面是这个文件的样子:,要在本地构建 Docker 镜像,请按照以下步骤操作:,现在我们为测试用例创建了 Docker 镜像,是时候开始部署分布式 Locust 集群了,我们将使用 Kubernetes。请注意,您可以在没有 Kubernetes 的情况下将 Locust 部署在单个 VM 上,但如果您需要分布式测试,Kubernetes 集群是使用的理想选择。,为了完成这个任务,我们需要创建以下 Kubernetes 资源。,以上所有资源都是标准的 Kubernetes 对象。定义这些对象的最关键因素是为每个对象提供所需环境变量的正确值并开放正确的端口。,下面是主部署的定义文件。,如定义文件所示,将环境变量LOCUST_MODE和TARGET_HOST传递给容器非常重要;否则,容器将不会配置为作为主 Locust 实例运行。,另一方面,worker 定义文件需要为 LOCUST_MODE 传递不同的值,并且它必须传递另一个名为 LOCUST_MASTER 的变量来建立 worker(s) 和 master 之间的通信。下面是部署 Locust 工作池的定义文件:,最后,需要服务对象来公开要通过 Web 界面和工作容器访问的主组件。下面是 Locust 服务的定义文件。,要在本地部署 Locust pod,请执行以下步骤:,执行上述命令后,将创建 4 个 Locust 工作节点、一个主节点(以及主 Pod 的服务)。,Locust 界面可通过以下 URL 访问:http://localhost:30627,您可以使用以下命令验证资源的创建:,要开始运行测试用例并测试在 Kubernetes 中运行的 Guestbook 应用程序,我们需要登录到Locust运行界面http://localhost:30627。下图显示了 Locust 登录界面。,前端页面询问将用于执行负载测试的用户数量和用户的生成率。该界面还显示连接到 Locust 安装的工作节点数量。,填写测试内容并点击提交按钮后,您将被重定向到统计页面,Locust 将开始从 Docker 镜像执行定义的测试。,下图显示了 Locust 的统计信息页面,我们可以在其中看到每个已定义用例的统计信息。,如果需要调整负载测试配置,例如增加用户数,您可以点击页面顶部的编辑链接,屏幕上会出现下面的表格输入新的值。,失败和错误也反映在统计页面中;如下图所示,统计页面显示每个测试用例的失败请求计数和速率。,Locust 还为我们提供了另一个视图来显示确切的故障错误,同时可以验证故障或错误的根本原因,如下图所示。,最后,Locust 还提供了其他视图和页面,例如通过图表说明负载测试进度的详情页面、显示有关 Locust worker信息的worker页面以及我们可以下载负载测试数据的下载数据页面。
© 版权声明
文章版权归作者所有,未经允许请勿转载。