概念
- Chart:一个 Helm 包,其中包含了运行一个应用所需要的工具、资源定义等,还可能包含 Kubernetes 集群中的服务定义,类似 Homebrew 中的 formula,APT 的 dpkg 或者 Yum 的 RPM 文件,
- Release: 在 Kubernetes 集群上运行的 Chart 的一个实例。在同一个集群上,一个 Chart 可以安装很多次。每次安装都会创建一个新的 release。例如一个 MySQL Chart,如果想在服务器上运行两个数据库,就可以把这个 Chart 安装两次。每次安装都会生成自己的 Release,会有自己的 Release 名称。
- Repository:用于存放和共享 Chart 的仓库。
简单说来,Helm 整个系统的主要任务就是,在仓库中查找需要的 Chart,然后把 Chart 以 Release 的形式安装到 Kubernetes 之中
组件
- Helm Client:客户端,具有对 Repository、Chart、Release 等对象的管理能力。
- Tiller Server:负责客户端指令和 Kubernetes 集群之间的沟通,根据 Chart 定义,生成和管理各种相对应的 API Object。
- Repository:Chart 的仓库,基本上就是索引文件 + Chart 压缩包的一个存储托管。
安装
环境要求
- 可用的 Kubernetes 集群
- 正确的可用的 kubectl config
简单做法
只要一个简单的 helm init
命令,就可以自动完成 Tiller 的安装,以及 Helm 本地设置。
手工做法
在一个网络不通,或者受控网络里面,init 可能无法正常工作,所以我们需要手工完成 Init 工作。
- 客户端:
helm init -c
,会跳过 Tiller 部分,仅进行客户端的安装。-
~/.helm
中保存了对 Repository 的定义,各个 Repository 的索引的缓存,以及 Chart 压缩包的缓存。
-
-
Tiller:下面是 Tiller 的运行 YML:
apiVersion: extensions/v1beta1 kind: Deployment metadata: annotations: deployment.kubernetes.io/revision: "1" generation: 1 labels: app: helm name: tiller name: tiller-deploy namespace: kube-system spec: replicas: 1 selector: matchLabels: app: helm name: tiller strategy: rollingUpdate: maxSurge: 1 maxUnavailable: 1 type: RollingUpdate template: metadata: creationTimestamp: null labels: app: helm name: tiller spec: containers: - env: - name: TILLER_NAMESPACE value: kube-system image: gcr.io/kubernetes-helm/tiller:v2.2.3 imagePullPolicy: IfNotPresent livenessProbe: failureThreshold: 3 httpGet: path: /liveness port: 44135 scheme: HTTP initialDelaySeconds: 1 periodSeconds: 10 successThreshold: 1 timeoutSeconds: 1 name: tiller ports: - containerPort: 44134 name: tiller protocol: TCP readinessProbe: failureThreshold: 3 httpGet: path: /readiness port: 44135 scheme: HTTP initialDelaySeconds: 1 periodSeconds: 10 successThreshold: 1 timeoutSeconds: 1 dnsPolicy: ClusterFirst restartPolicy: Always securityContext: {} terminationGracePeriodSeconds: 30
Service
apiVersion: v1
kind: Service
metadata:
creationTimestamp: 2017-03-27T15:06:49Z
labels:
app: helm
name: tiller
name: tiller-deploy
namespace: kube-system
spec:
clusterIP: 10.3.251.197
ports:
- name: tiller
port: 44134
protocol: TCP
targetPort: tiller
selector:
app: helm
name: tiller
sessionAffinity: None
type: ClusterIP
注意楼上的 Service 代码表明 Tiller 并没有用 NodePort 或者 Ingress/Loadbalancer 等方式暴露端口,因此这里推测 Helm 同 Tiller 的通信可能是利用 kubectl proxy 完成的。
常用操作
下面列举了一个简单的安装数据库的操作过程:
helm search mysql #搜索
helm inspect stable/mariadb #查看
helm install stable/mariadb #安装
很明显,上面的命令没有对 Chart 的而运行做任何指导,实际上没什么用,我们可以利用 --set
或者 --value
参数,来指定在我们 Inspect 命令中看到的变量的值,就可以完成对变量的设置了。
除了利用简单的模板功能来生成和控制 pvc/secret 等各种对象之外, Chart 还具有很重要的依赖管理功能。
自建 Chart
简单的一个 helm create
命令就可以初始化一个 chart。
├── Chart.yaml # Chart 的文件主要信息
├── charts # 依赖的 Chart
├── templates # 模板目录,用 gotpl 编写 Kubernetes 运行 App 所需的各种对象定义
│ ├── NOTES.txt
│ ├── _helpers.tpl
│ ├── deployment.yaml
│ └── service.yaml
└── values.yaml # 缺省值定义
编写完成之后,使用 helm package
命令可以将 chart 打包为 tgz 格式。
最后可以运行 helm install ./some.chart.tgz
来运行本地的 Chart。
自建 Repository
很明显的,我们需要一个自建仓库,不过幸运的是,Helm 仓库并不像 Docker Image Registry 之类的东西那么麻烦。只要一个能相应 GET 请求并提供 YAML 和 TAR 文件的 HTTP 服务器就可以了。
最简单的,可以用 helm serve
命令就可以了:
- 首先创建一个文件夹用于保存 Chart
- 把上面我们
helm package
生成的压缩包复制进去 -
helm serve --repo-path repo
就会运行一个简单的 HTTP Server 提供 Helm chart 仓库的服务了。 - 运行
helm repo add some-repo http://repo-url
命令,添加仓库到系统中。
另外可以利用 github 以及各种 HTTP 服务器来提供这一服务。
文章来源于互联网:Helm 简介